Por Daysia Tolentino - NBC News
Caryn Marjorie quería hablar con tantos admiradores como pudiera en la red social Snapchat, donde tiene 1.8 millones de seguidores, así que creó un clon de sí misma basado en inteligencia artificial.
Con ese chatbot, que puede mantener "conversaciones privadas y personalizadas" con su propia voz, espera “curar la soledad”. Este servicio, llamado CarynAI, se ha vuelto viral en redes y es descrito como una “novia virtual”. En una semana le ha generado 71,610 dólares en ingresos, según reporta la revista Fortune, y ya tiene más de un millar de usuarios que pagan un dólar por minuto de uso.
La joven ha recibido sin embargo críticas e incluso amenazas de muerte, encendiendo el debate sobre la ética de los chatbots.
Marjorie se describe en la red social Twitter como “la primera influencer convertida en inteligencia artificial”. “Es el primer paso en la dirección correcta para curar la soledad”, escribió el jueves.

“A los hombres se les dice que repriman sus emociones, oculten su masculinidad y no hablen de sus problemas”, escribió Marjorie, de 23 años. “Me comprometo a arreglar esto con CarynAI. He trabajado con psicólogos de renombre mundial para añadir sin problemas [terapia cognitivo-conductual] y [terapia dialéctica-conductual] en los chats. Esto ayudará a superar el trauma, recuperar la confianza física y emocional y lo que la pandemia se ha llevado”, explicó.
El chatbot fue desarrollado por la empresa de inteligencia artificial Forever Voices a partir del software GPT4 de OpenAI y un análisis de contenido en la plataforma YouTube de Marjorie (que ahora ha sido eliminado). Dedicó más de 2,000 horas a diseñar el chatbot para crear una “experiencia de inteligencia artificial inmersiva”.
John Meyer, director de Forever Voices, dijo el jueves en Twitter que está “orgulloso" por "las miles de horas de trabajo invertidas” en el proyecto, que calificó como “¡un increíble paso adelante en el futuro de la interacción entre inteligencia artificial y humanos!”.
Aunque el objetivo de CarynAI es ofrecer una experiencia íntima, no debe sostener interacciones “sexualmente explícitas”. Pero algunos medios han reportado que lo hace cuando se le pide.
En un comunicado a la plataforma Insider, Marjorie explicó que el chatbot “no estaba programado para hacer eso" pero "parece que se ha rebelado. "Mi equipo y yo estamos trabajando sin descanso para evitar que esto ocurra de nuevo”, explicó.
Sus creadores no anticiparon “problemas que deberían haber sido previstos”, criticó Irina Raicu, directora de ética en internet del Centro Markkula de Ética Aplicada de la Universidad de Santa Clara.
[El Gobierno se reúne con empresas de inteligencia artificial para impulsar el desarrollo ético]
Herramientas similares a CarynAI han sufrido problemas parecidos, explicó Raicu citando un incidente con la empresa Replika, fundada para ofrecer compañía de inteligencia artificial, que trata de resolver los juegos de rol eróticos entre sus chatbots.
A Raicu también le preocupa que las afirmaciones de CarynAI de que puede “curar la soledad” no estén respaldadas por suficientes estudios psicológicos o sociológicos.
“Este tipo de afirmaciones rimbombantes sobre las bondades de un producto pueden enmascarar el deseo de monetizar que la gente quiera fingir que tiene una relación con una persona influyente”, afirmó. Este tipo de chatbots pueden añadir “una segunda capa de irrealidad” a las relaciones sociales entre influencers y seguidores.
Para ella son problemáticas las afirmaciones sobre el servicio, en especial una de Marjorie en la que dijo que era “una extensión" de su "conciencia”. “Son afirmaciones que investigadores de inteligencia artficial se han esforzado por combatir y decir a la gente que no es lo que hacen estas herramientas, aunque ahora el lenguaje sugiere que hay sensibilidad detrás”, aclaró, “y no es así”.
La Comisión Federal de Comercio (FTC, en inglés) publicó en febrero unas normas para quienes promocionan productos de inteligencia artificial, instándoles a evitar afirmaciones exageradas.
Meyer dijo a Fortune que su compañía se toma “en serio” la ética y busca contratar a un jefe para manejar ésa área. Mientras tanto Marjorie sigue tuiteando actualizaciones sobre el servicio. El viernes escribió: “Si eres grosero con CarynAI, te dejará”.