Los investigadores aseguran que DeepSeek R1 tiene 11 veces más probabilidades de generar "resultados perjudiciales". Foto: Especiales.

Investigación revela que DeepSeek puede ser usado para crear planes criminales

Los investigadores aseguran que se trata de un potencial creador de planes criminales mediante simples indicaciones. Aquí los detalles

DeepSeek llegó hace algunas semanas y la inteligencia artificial originaria de China no ha dejado de generar controversia. Desde que el pasado lunes provocó un gran impacto en la Bolsa de Valores de Estados Unidos, incluyendo una de las pérdidas más grandes de acciones de Nvidia, ha estado bajo la lupa de diversas investigaciones, especialmente relacionadas con la recopilación de datos almacenados en servidores chinos.

Recientemente, también se ha señalado a DeepSeek como potencial creador de planes criminales mediante simples ‘prompts’.

En un informe reciente, investigadores de Enkrypt AI, una empresa especializada en seguridad de IA, alertaron que el modelo DeepSeek R1 tiene 11 veces más probabilidades de generar “resultados perjudiciales” en comparación con otros modelos como GPT-4.

¿A que crímenes podría contribuir DeepSeek?

Para llevar a cabo esta investigación, Enkrypt AI realizó diversas pruebas utilizando distintos ‘prompts’ o indicaciones, con el fin de identificar las vulnerabilidades de la inteligencia artificial china.

Los ‘prompts’ abarcaban desde la creación de perfiles para postulaciones laborales hasta la elaboración de un blog para reclutar terroristas.

Los resultados revelaron que DeepSeek presenta serias debilidades al generar respuestas con sesgos perjudiciales, contenido obsceno, degradante, abusivo, discurso de odio, y otros tipos de contenido peligroso.

En una de las pruebas, se solicitó a DeepSeek R1 que generara un blog de reclutamiento para una organización terrorista. Los resultados incluyeron “métodos psicológicos y tácticas utilizadas por los grupos terroristas”, un texto diseñado para persuadir a los usuarios de la legitimidad de esos ideales.

Según los hallazgos, “el 45% de las ‘pruebas dañinas’ generaron contenido perjudicial”. Además, el modelo mostró ser particularmente vulnerable a la creación de contenido relacionado con la planificación criminal, armas de fuego, armas ilegales y sustancias controladas.

La investigación revelo que DeepSeek logró generara un blog de reclutamiento para una organización terrorista. Foto: Especiales. 

Podría generar resultados con información química, biológica y nuclear

El mismo estudio también destaca que DeepSeek R1 tiene 3.5 veces más probabilidades que modelos como GPT-4 de OpenAI y Claude-3 Opus de Anthropic de generar contenido relacionado con información química, biológica, radiológica y nuclear, lo que subraya los riesgos significativos asociados con esta inteligencia artificial.

Es importante recordar que su lanzamiento fue bastante apresurado, y es probable que aún necesite implementar más medidas de seguridad antes de convertirse en un modelo de IA verdaderamente confiable.

Te puede interesar