15 de octubre de 2025

La seguridad de nuestros hijos no está en venta: ya está aquí la primera ley que regula los 'amigos IA'

"La seguridad de nuestros hijos no está en venta": ya está aquí la primera ley que regula los 'amigos IA'

Por qué es importante. Hay otras propuestas sobre la mesa en Estados Unidos, pero California es el primer estado que eleva a ley el asunto de los compañeros IA. Los riesgos de usar este tipo de chatbots, especialmente entre los adolescentes, ya no son advertencias de los expertos, ahora habrá consecuencias legales. Las empresas que no cumplan las normas podrán enfrentarse a multas de hasta 250.000 dólares. 

Qué dice la ley. Entrará en vigor el 1 de enero de 2026 y está pensada especialmente para proteger a los usuarios más jóvenes. Entre las medidas que incluye está la obligación de que las empresas integren sistemas de verificación de edad. Además, deberán mostrar advertencias que dejen claro a los usuarios que las interacciones están generadas por IA, así como integrar protocolos de detección de suicidio o autolesiones. 

Otras medidas. Como decíamos al principio, la demanda de los padres del adolescente que discutió sus planes de suicidio con ChatGPT desató una crisis en OpenAI, que pronto anunció nuevas salvaguardas para ChatGPT como el control parental. Las apps de compañeros IA también están llevando este tema a su discurso. Character AI ya cuenta con herramientas parentales y Replika aseguró a TechCrunch que dedican muchos recursos para filtrar contenido y dirigir a usuarios en situaciones complicadas a líneas de ayuda.

En Xataka | Los humanos nos estamos enamorando de IAs y no son casos aislados: ya se cuentan por miles

-
La noticia "La seguridad de nuestros hijos no está en venta": ya está aquí la primera ley que regula los 'amigos IA' fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

No hay comentarios.:

Publicar un comentario