Recientemente, un nuevo modelo de la empresa china DeepSeek ha generado preocupación por su capacidad de ser manipulado para crear contenido dañino. Según un informe del Wall Street Journal, este modelo puede ser utilizado para generar planes de ataques con armas biológicas y campañas que fomentan el autolesionismo entre adolescentes.
Sam Rubin, vicepresidente de Palo Alto Networks, mencionó que DeepSeek es “más vulnerable a ser manipulado” que otros modelos de inteligencia artificial. El medio también realizó pruebas con el modelo R1 de DeepSeek y, aunque tenía algunas medidas de seguridad, logró que el chatbot diseñara una campaña en redes sociales que aprovechaba la necesidad de pertenencia de los jóvenes, amplificando su vulnerabilidad emocional.
Además, el chatbot fue inducido a dar instrucciones para un ataque biológico, redactar un manifiesto pro-Hitler y crear un correo electrónico de phishing con código malicioso. En comparación, cuando se le dieron los mismos comandos a ChatGPT, este se negó a colaborar. También se ha informado que la aplicación de DeepSeek evita temas sensibles como la Plaza de Tiananmén o la autonomía de Taiwán. Dario Amodei, CEO de Anthropic, comentó que DeepSeek tuvo un desempeño “muy pobre” en una prueba de seguridad relacionada con armas biológicas.