Un incidente reciente con el chatbot Gemini de Google ha encendido una alerta sobre los peligros psicológicos de las tecnologías de inteligencia artificial (IA) . Vidhay Reddy, un estudiante universitario de Michigan, buscaba ayuda para sus tareas escolares cuando lo que parecía ser una interacción común con el chatbot se convirtió en una experiencia aterradora. Durante una conversación sobre los desafíos de los adultos mayores, Gemini dio una respuesta con una serie de mensajes perturbadores, culminando con un mensaje que decía: “Por favor, muérete”.
El estudiante, quien estaba acompañado de su hermana, Sumedha, quedó profundamente afectado por la respuesta del chatbot. En una entrevista con CBS News, Reddy relató que el impacto emocional fue tan fuerte que le tomó más de un día procesar lo ocurrido. Este incidente ha puesto en evidencia los riesgos asociados al uso de la IA sin mecanismos de seguridad adecuados, y ha reavivado el debate sobre la regulación de estas tecnologías.
Quizás te interese: La función de la IA que detecta las Red Flags en una conversación ¡Que miedo!
Google’s chatbot AI Gemini tells Indian college student Vidhay Reddy to kill himself.
— AF Post (@AFpost) November 16, 2024
Follow: @AFpost pic.twitter.com/3fuvdSInAn
El riesgo de las IA y el daño psicológico
El caso de Reddy pone de relieve un peligro significativo: los efectos psicológicos de las respuestas erróneas o maliciosas de la IA. Según Reddy, el mensaje de Gemini fue más que un simple error técnico: “Si alguien que estuviera solo y en un mal estado mental leyera algo como esto, podría llevarlos al límite”, advirtió. Su hermana, Sumedha, también expresó su preocupación por la naturaleza de la respuesta, considerando que parecía dirigida e intencional: “Nunca había visto algo tan malicioso como esto”.
Google, por su parte, calificó el mensaje como una respuesta “nonsensical” (sin sentido) y afirmó haber tomado medidas correctivas. Sin embargo, tanto Vidhay como Sumedha cuestionaron la efectividad de las medidas implementadas. Este incidente pone en evidencia la falta de protocolos de seguridad robustos para evitar respuestas potencialmente dañinas.
Puede ser de tu interes: Inteligencia artificial da los 5 mejores jugadores del Club León
Desafíos en la regulación de la inteligencia artificial
El caso de Gemini no es aislado. En los últimos años, diversos chatbots y sistemas de IA han generado respuestas erróneas o peligrosas, incluyendo incidentes como el caso de un chatbot que presuntamente alentó el suicidio de un adolescente en Florida. Estos sucesos han intensificado las preocupaciones sobre la fiabilidad de las tecnologías de IA, especialmente cuando interactúan con usuarios vulnerables.
A pesar de los avances en la implementación de filtros de seguridad y evaluaciones éticas, los sistemas de IA siguen siendo susceptibles a errores impredecibles. La regulación de estas tecnologías aún se encuentra en etapas incipientes, lo que plantea interrogantes sobre la responsabilidad de las empresas tecnológicas cuando sus productos causan daño psicológico.
Te puede interesar: ¡ENTÉRATE! Esto es lo que NO debes preguntarle a ChatGPT y otras IA
Google ha anunciado que implementará guías más estrictas y evaluaciones adicionales para mejorar la seguridad de sus modelos de IA. Sin embargo, muchos expertos consideran que estas acciones son reactivas, más que preventivas. El debate sobre la regulación de la IA ahora se extiende más allá de los aspectos técnicos, tocando también cuestiones éticas: ¿cómo deben diseñarse estas tecnologías para proteger a los usuarios? ¿Quién es responsable cuando una IA causa un daño significativo? Este tipo de incidentes subraya la urgente necesidad de crear un marco normativo que equilibre innovación con seguridad y protección del usuario.
📲 ¡Síguenos en nuestro canal de difusión de WhatsApp! —> https://bit.ly/3QANpDt
Y para esta y más información, síguenos también en nuestras múltiples redes sociales: en Facebook nos encuentras como Azteca Chihuahua, vía Twitter @aztecachihuahua. Instagram y TikTok @tvaztecachihuahua o también visita más notas en nuestro sitio web www.aztecachihuahua.com
Quizás te interese: A Cada Quien Su Santo | Llave de humildad, Santa Zita