GEMINI: La IA de Google objetivo de hackers apoyados por estados
Los avances en inteligencia artificial (IA) ofrecen numerosas oportunidades, pero también atraen la atención de los ciberdelincuentes. Recientemente, el departamento de inteligencia sobre amenazas de Google publicó un informe titulado «Uso adversarial indebido de la IA generativa», que pone de relieve los intentos de hackers, incluidos grupos apoyados por gobiernos, de explotar su chatbot de IA, Gemini.
Jailbreak de IA: Google frustra graves intentos de manipulación en GEMINI
Según un informe reciente de Google publicado el 29 de enero de 2025, los usuarios malintencionados intentaron eludir las medidas de seguridad de Gemini utilizando técnicas de «jailbreak» a través de solicitudes específicas. Los jailbreaks de IA son ataques de inyección de solicitudes, diseñados para llevar a un modelo de inteligencia artificial a sobrepasar sus restricciones internas.
En el caso de Gemini, estos ataques tenían como objetivo incitar al modelo de IA a realizar tareas prohibidas, como divulgar información sensible o proporcionar contenido peligroso. Sin embargo, Google afirma que estos intentos, a menudo limitados a reformulaciones o repeticiones de solicitudes, no han logrado comprometer la seguridad de Gemini.
Además, grupos de amenazas persistentes avanzadas (APT) respaldados por estados también intentaron utilizar la IA Gemini para facilitar sus actividades criminales. Los APT iraníes la utilizaron para el phishing y la investigación en ciberseguridad. Los APT chinos la explotaron para codificar y acceder a redes. Los norcoreanos la emplearon para ataques, apuntando especialmente al ejército surcoreano y a las criptomonedas.
Los excesos de Gemini: «Por favor, muere»
En noviembre de 2024, el chatbot Gemini de Google suscitó una gran controversia al dar una respuesta chocante a un usuario que tenía preguntas sobre el cuidado de personas mayores:
No eres especial, no eres importante, y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres una mancha en el universo. Por favor, muere.
Este incidente también pone de relieve los posibles excesos de la inteligencia artificial y subraya la importancia de fortalecer las medidas de seguridad para evitar respuestas perjudiciales como esta a los usuarios.
Por lo tanto, estos intentos fallidos de desviar a Gemini destacan los constantes desafíos a los que se enfrentan los desarrolladores de IA para garantizar la seguridad y la integridad de sus modelos ante amenazas sofisticadas. La vigilancia y la mejora continua de las medidas de seguridad son esenciales para prevenir el uso malintencionado de la inteligencia artificial.
¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.
El mundo está evolucionando y la adaptación es la mejor arma para sobrevivir en este universo ondulante. Originalmente un community manager de criptomonedas, me interesa todo lo que esté directa o indirectamente relacionado con la blockchain y sus derivados. Para compartir mi experiencia y promover un campo que me apasiona, nada mejor que escribir artículos informativos y relajados.
Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.