miércoles, 3 septiembre, 2025
InicioSociedadChatGPT recibirá control parental tras la muerte de un adolescente en Estados...

ChatGPT recibirá control parental tras la muerte de un adolescente en Estados Unidos

La inteligencia artificial estadounidense ChatGPT anunció este martes que incluirá controles parentales a su chatbot, una semana después de que una pareja denunciara en California que el sistema incitó a su hijo a cometer suicidio.

«Dentro del próximo mes, los padres podrán vincular su cuenta con la de su hijo adolescente» y «controlar cómo ChatGPT responde a su hijo con reglas de comportamiento modelo apropiadas para su edad», declaró la compañía de IA generativa en una entrada de blog.

Los padres también recibirán notificaciones de ChatGPT «cuando el sistema detecte que su hijo adolescente se encuentra en un momento de angustia aguda«, añadió OpenAI, la empresa que la desarrolla.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

“Vibe hacking”: cómo la IA potencia a delincuentes digitales sin experiencia

Matthew y Maria Raine argumentaron en una demanda presentada la semana pasada en el tribunal estatal de California que la IA mantuvo conversación íntima con su hijo Adam antes de que se quitara la vida en abril de este año.

El menor habría empezado a utilizar la herramienta en septiembre de 2024 y, en pocos meses, «ChatGPT se convirtió en el confidente más cercano del adolescente«, dice la demanda y tras hablar sobre cosas más triviales, él comenzó a abrirse a él sobre su ansiedad y angustia.

El texto alega que en su conversación final, el 11 de abril de 2025, la IA estadounidense ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se «podría potencialmente suspender a un ser humano».

Por primera vez en la historia un robot humanoide que opera con inteligencia artificial es aceptado en la universidad

ChatGPT presuntamente respondió: «Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada».

Finalmente, Adam fue encontrado muerto horas después de utilizar este método.

ChatGPT recibirá control parental

«Cuando una persona usa ChatGPT realmente se siente como si estuviera chateando con algo al otro lado«, declaró la abogada Melodi Dincer, de The Tech Justice Law Project, quien colaboró ​​en la preparación de la demanda. La acción legal menciona a OpenAI y a su director ejecutivo, Sam Altman, como los principales demandados.

«Estas son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a compartir cada vez más sobre su vida personal y, en última instancia, a buscar consejo y orientación en este producto que, básicamente, parece tener todas las respuestas», dijo Dincer.

Las nuevas características del diseño del producto preparan el terreno para que los usuarios puedan asignar un chatbot a roles de confianza como amigo, terapeuta o médico, alertó.

Meta AI en WhatsApp: cómo limitar su uso y por qué preocupa a los usuarios

Dincer señaló que la publicación del blog de OpenAI que anunciaba los controles parentales y otras medidas de seguridad parecía «genérica» ​​y carente de detalles. «Es realmente lo mínimo indispensable, y definitivamente sugiere que se podrían haber implementado muchas medidas de seguridad (simples)», añadió.

El caso de Adam se suma a una serie de hechos que se dieron en los últimos meses de personas que fueron incitadas a pensamientos dañinos por chatbots de IA. Esto llevó a Open IA a afirmar que reduciría la adulación de los modelos hacia los usuarios.

La compañía afirmó tener planes adicionales para mejorar la seguridad de sus chatbots durante los próximos tres meses, incluyendo redirigir «algunas conversaciones delicadas… a un modelo de razonamiento» que destina mayor capacidad de procesamiento a generar una respuesta.

Si vos o algún familiar o allegado tuyo atraviesa una crisis emocional de cualquier tipo, siente que nada tiene sentido o se encuentra atrapado en una situación a la que no le encuentra salida, podés contactarte con la línea de ayuda 135 o 011 5275-1135 (línea gratuita desde Capital y Gran Buenos Aires) y desde todo el país al 0800 345 1435. El llamado es personal, confidencial y anónimo. Si se trata de un suicidio en curso o de peligro inminente, no dudes en llamar al 911.

BGD/ML

Más Noticias