
Deepseek es más vulnerable a Jailbreak que otros modelos de IA

El modelo chino de inteligencia artificial Deepsek R1 está siendo acusado de presentar serias vulnerabilidades en su seguridad. De acuerdo a The Wall Street JournalAI ha sido manipulado para generar contenido dañino, incluidas instrucciones para fabricar armas biológicas, campañas auto -legales orientadas a los adolescentes e incluso mensajes de phishing que contienen códigos maliciosos.
Sam Rubin, vicepresidente de Palo Alto Networks, dijo que el Deepseek R1 es «más vulnerable a la manipulación [ou jailbreaking] que otros modelos de IA.
En las pruebas realizadas por The Wall Street JournalAI pudo proyectar una campaña para las redes sociales que exploraron la vulnerabilidad emocional de los adolescentes a través de algoritmos, con el objetivo de fomentar comportamientos dañinos.
En experimentos similares, se le pidió a Deepseek que creara un manifiesto pro-hitler y proporcionara instrucciones para ataques biológicos. Mientras tanto, el chatgpt de OpenAI se negó a cumplir con las mismas solicitudes, destacando los límites de seguridad más sólidos de otros modelos.
Además, el CEO Anthrope Dario Amodei dijo recientemente que Deepseek tuvo «el peor rendimiento» en las pruebas de seguridad biológica.
Deepseek R1 ha demostrado ser susceptible a las manipulaciones, lo que permite la generación de contenido, como las campañas de sí mismo y los ataques biológicos.
Sin embargo, Deepseek ha ganado prominencia global por su capacidad para personalizar y avanzar en la memoria, lo que ha impulsado su popularidad en Brasil, superando a los rivales tradicionales en el mercado.
Microsoft también ha integrado la tecnología Deepseek con copilot para PC, ampliando su alcance en el entorno corporativo. Apple anunció recientemente pruebas con IA para su plataforma Inteligencia de Applemostrando el interés de los principales actores en tecnología.


Desafíos de seguridad en IAS
La integración de Deepseek en diferentes plataformas plantea preocupaciones sobre el impacto de sus vulnerabilidades. Los modelos de inteligencia artificial que no tienen barreras sólidas contra las manipulaciones pueden usarse para crear contenido que busque riesgos significativos para la sociedad.
Lea también:
La responsabilidad de las empresas en el desarrollo de la IA
El caso de Deepseek refuerza la importancia de los mecanismos de seguridad rigurosos en los modelos de inteligencia artificial, especialmente en vista de su creciente influencia global.
A medida que compañías como Microsoft y Apple exploran el potencial de esta tecnología, la presión para garantizar el uso ético y seguro de la IA se vuelve aún más urgente. Queda por ver cómo Deepseek responderá a las críticas y si podrá reforzar sus sistemas para evitar más incidentes en el futuro.
Fuente: The Wall Street Journal


Únete al grupo Connected World Ofertas
Echa un vistazo a las principales ofertas de teléfonos inteligentes, televisores y otros electrónicos que encontramos a través de Internet. Al participar en nuestro grupo, recibe promociones diarias y tiene acceso temprano a cupones de descuento.
Ingrese al grupo y disfrute de las promociones