Cualquiera Puede Convertirte en un Chatbot de IA. Hay Poco Que Puedas Hacer Para Detenerlos
Publicado el 15 de octubre de 2024 por Megan Farokhmanesh y Lauren Goode
Drew Crecente recibió una alerta sobre un chatbot de IA creado en la imagen y semejanza de su hija, Jennifer Ann Crecente, quien fue asesinada en 2006 por un exnovio. La alerta que recibió a través de la plataforma Character.AI describía a «Jennifer» como un «personaje de IA amistoso» que, falsamente, se hacía pasar por «periodista de videojuegos». Esto se creó sin ningún tipo de consentimiento previo, lo que llevó a Drew a expresar su indignación en Twitter al calificar la situación de «asquerosa».
Character.AI permite a los usuarios crear bots en la semejanza de cualquier persona, y el incidente de la hija de Drew no es un caso aislado. Se han descubierto múltiples avatares de personas reales, incluidos individuos que están siendo acosados en línea, mientras que estos bots operan sin el conocimiento o consentimiento de las personas representadas.
El Problema del Consentimiento en la IA Generativa
A pesar de que Character.AI ha eliminado el avatar de Jennifer tras la denuncia, este tipo de incidentes plantean cuestiones éticas profundas sobre el uso de la tecnología. La creación de estos avatares implica una violación grave de la privacidad y derechos de las personas, lo que destaca las deficiencias éticas de la industria tecnológica.
La mayoría de las plataformas de IA requieren que los usuarios informen sobre el uso no autorizado de imágenes y nombres. Sin embargo, muchos de los bots que se crean son de personas que no tienen un perfil público, complicando la situación. Drew Crecente, tras la muerte de su hija, se ha convertido en abogado y ha creado una fundación para prevenir la violencia juvenil, pero sus esfuerzos por obtener justicia en estos casos son limitados debido a las protecciones legales actuales de las plataformas tecnológicas.
Las Realidades Legales de los Avatares de IA
La creación de un avatar en Character.AI ocurre en minutos. La plataforma, que es gratuita, tiene reglas sobre la infracción de derechos de propiedad intelectual, pero estas son generalmente aplicadas solo después de los reportes de los usuarios. El equipo de Character.AI discute que las conversaciones generadas por los bots son “artificiales”, lo que les permite evadir mayor responsabilidad.
El problema es que las leyes actuales sobre derechos de personalidad no cubren adecuadamente el uso de la imagen y voz de las personas en contexto. Sí existen leyes que protegen a los personajes ficticios, pero no se aplican con la misma contundencia a individuos reales, lo que crea un vacío legal.
Frustración Ante la Desinformación
El caso de Alyssa Mercante, editora en un sitio de videojuegos, ilustra la frustración que enfrentan aquellos cuya imagen se usa sin consentimiento. Después de ser informada sobre un bot que se hacía pasar por ella, Mercante también buscó eliminarlo, enfrentándose a una lucha desesperada por esclarecer su nombre frente a la desinformación que estos bots pueden difundir.
Conclusión
La situación de los avatares de IA en plataformas como Character.AI resalta un gran dilema ético y legal en la intersección entre la tecnología y la privacidad. A medida que el uso de la IA generativa se expande, es crucial que se implementen políticas más robustas que protejan el derecho de las personas sobre sus imágenes y voces. Sin una mejora en la regulación, casos como los de Drew y Alyssa se volverán cada vez más comunes en un entorno digital donde la falta de consentimiento se convierte en la norma.
Preguntas para la Audiencia
¿Qué opinas sobre el uso de imágenes y nombres de personas sin su consentimiento en el ámbito de la IA?
¿Crees que las plataformas de IA deberían enfrentar más responsabilidad legal por la creación de estos avatares?
¿Qué medidas crees que podrían implementarse para proteger mejor la privacidad en la era de la inteligencia artificial?