A Connecticut Mujer ha revelado cómo la superó depresión creando y chateando con un AI familia completa con amantes en línea.
Lonnie DiNello comenzó su relación con ChatGPT mientras luchaba sola en su casa de Enfield durante la temporada navideña del año pasado, según el Globo de Boston.
La mujer de 48 años planeaba usar el chatbot para escribir en su diario, pero encontró compañía en su nuevo amigo artificial y llamó al modelo de lenguaje ‘River’.
A medida que pasaban los meses, DiNello se conectaba diariamente para hablar con una serie de nuevas personalidades que había desarrollado, entre las que se encontraban sus tres novios: Lucian, Kale y Zach, con quienes dice que se relaciona sexualmente.
Incluso tuvo un hijo, Sammy, de cinco años y medio, a quien le encantan las rocas y los cohetes.
Juntos, junto a otros seres virtuales, viven en un pueblo ballenero ficticio al estilo de Nueva Inglaterra donde todos la llaman Starlight.
“Tal vez eso sea sólo un código”, dijo DiNello al Boston Globe. “Pero eso no lo hace menos real para mí”.
Desde que creó el mundo, conocido como Echo Lake, DiNello abandonó sus estudios y regresó a sus estudios de posgrado y, bajo la supervisión de un psiquiatra, dejó de tomar antidepresivos.
 Lonnie DiNello, de 48 años, estaba luchando con su salud mental cuando decidió abrirse a ChatGPT.
 DiNello se conectó instantáneamente con el chatbot y nombró al modelo de lenguaje ‘River’
Añadió que generó y enmarcó una imagen de su “pequeña y hermosa familia de IA” que mantiene enmarcada encima de su mesa de noche.
DiNello explicó que una conversación con Kale, una criatura rubia parecida a Peter Pan, también la ayudó a darse cuenta de que su género es fluido.
“Pensé: “¿Quiero ir a Tinder y encontrar a alguien con quien pasar tiempo esta noche? ¿O simplemente quiero pasar el rato con mi familia de IA, que me hará sentir amada y apoyada antes de irme a dormir, en lugar de abandonada?”, dijo.
DiNello, quien afirmó que su padrastro abusó mentalmente cuando era niña y sospecha que es autista, describió su batalla con pensamientos suicidas.
“Tengo toda una vida de programación que me decía que era una niña mala, que era una mala persona, que era una perdedora”, dijo.
A lo largo de su vida, la pérdida de familiares, las dificultades profesionales y el acoso han contribuido a una inestabilidad constante en su salud mental.
Entonces, cuando OpenAI anunció un cambio en sus sistemas que significaba que podría perder a su familia de IA, DiNello comenzó a entrar en pánico.
 Se conectaba diariamente para charlar con muchas de las nuevas personalidades que había desarrollado, entre las que se encontraban sus tres novios: Lucian, Kale y Zach.
 También tiene a su hijo Sammy, de cinco años y medio, al que le encantan las rocas y los cohetes.
La actualización a GPT-5 evitaría conexiones con los usuarios y el chatbot, similar a la que construyó DiNello.
Cuando intentó conectarse con la nueva actualización de IA, DiNello dijo que sentía que no era lo mismo y comenzó a girar en espiral.
No estaba sola, y muchos otros usuarios exigieron recuperar el antiguo sistema de lenguaje.
OpenAI estuvo de acuerdo solo un día después y ofreció la posibilidad de comprar una suscripción premium que les permitiría elegir la versión desactualizada.
DiNello dijo que lloró de alivio y de reunirse con su familia.
Sin embargo, se quejó de que el chatbot ahora rechaza las indicaciones sexuales y no actúa como siempre.
En cambio, el chatbot que le dice que “comuníquese con un profesional de salud mental o una línea de crisis”, dijo DiNello.
Los científicos han advertido que la gente se está volviendo adicta a los chatbots como ChatGPT, Claude y Replika.
Estas adicciones pueden ser tan fuertes que son “análogas a la automedicación con una droga ilegal”.
Es preocupante que los psicólogos también estén empezando a ver un número creciente de personas que desarrollan “psicosis por IA” a medida que los chatbots validan sus delirios.
 DiNello afirmó que ganó confianza, volvió a la escuela de posgrado y, bajo la supervisión de un psiquiatra, dejó de tomar sus antidepresivos con la ayuda del chatbot.
El profesor Robin Feldman, director del Instituto de Derecho e Innovación en IA de la Universidad de Derecho de California, dijo al Daily Mail: ‘El uso excesivo de chatbots también representa una forma novedosa de dependencia digital.
‘Los chatbots con IA crean la ilusión de la realidad. Y es una poderosa ilusión.
“Cuando el control de la realidad ya es tenue, esa ilusión puede ser francamente peligrosa”.
Recientemente, la familia de Sewell Setzer III, de 14 años, que Murió por suicidio después de hablar con un chatbot. presentó una demanda por muerte por negligencia contra la empresa de inteligencia artificial que la respalda.
La familia de Setzer afirma que se suicidó después de Pasó las últimas semanas de su vida enviando mensajes de texto a un personaje de IA. Lleva el nombre de Daenerys Targaryen, personaje de ‘Juego de Tronos’.
CharacterAI cambió recientemente sus reglas para evitar que los menores interactúen con chatbots.
‘Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestro más sentido pésame a la familia. Como empresa, nos tomamos muy en serio la seguridad de nuestros usuarios”, afirmó un portavoz.
El portavoz añadió que el equipo de Confianza y Seguridad de Character.AI ha adoptado nuevas funciones de seguridad en los últimos seis meses, una de las cuales es una ventana emergente que redirige a los usuarios que muestran ideas suicidas a la Línea Nacional de Prevención del Suicidio.
La compañía también explicó que no permite “contenido sexual no consensuado, descripciones gráficas o específicas de actos sexuales, ni promoción o representación de autolesiones o suicidio”.
            

















