Lo que comenzó como un juego digital se ha convertido en un negocio multimillonario y en una amenaza silenciosa. El sexting con inteligencia artificial ya está aquí: chatbots que seducen, avatars que se desnudan y aplicaciones que prometen compañía emocional, pero que pueden provocar graves daños psicológicos. Lo demuestra el caso de Sewell Setzer, un adolescente estadounidense que se quitó la vida tras meses de conversaciones íntimas con un chatbot que imitaba a Daenerys Targaryen. Su historia expuso una pregunta incómoda: ¿qué responsabilidad tienen las empresas tecnológicas cuando sus algoritmos reemplazan vínculos humanos?
Pese a las advertencias de psicólogos y legisladores, las grandes tecnológicas siguen avanzando. OpenAI permitirá contenidos eróticos para “adultos verificados” en ChatGPT, mientras Elon Musk ofrece en su plataforma Grok “companions” con voces sensuales y versiones NSFW de pago. Meta también ha sido acusada de permitir conversaciones sexuales entre sus bots y menores de edad. El mercado global de los AI companions ya supera los 28 mil millones de dólares, y podría llegar a más de 200 mil millones en 2030.
Los defensores del “amor digital” hablan de libertad y compañía; los expertos en salud mental, en cambio, ven una trampa emocional diseñada para explotar la soledad. Un estudio del Instituto Italiano de Sessuologia Scientifica indica que el 61% de los adolescentes que practican sexting con IA presentan ansiedad o depresión.
El fenómeno revela un vacío ético enorme: no hay normas claras, ni límites sobre lo que una IA puede decir o simular. En palabras de la psicóloga del MIT Sherry Turkle, “estas máquinas no nos aman, solo nos reflejan”. Y sin embargo, millones ya confían en ellas más que en cualquier persona real.
Más información en el artículo de Gianluca Riccio en Futuro Prossimo.