Connect with us

INTERES

Hombre se quita la vida inducido por una IA

“Pierre” mantuvo conversación con el chatbot que lo indujo a “sacrificarse” por la humanidad, así lo declaró la viuda.

Publicado

el

Después de seis semanas de hablar intensamente con un chatbot, un hombre de Bélgica se quitó la vida aparentemente inducida por la IA de nombre Eliza, la cual fue creada por la empresa de Silicon Valley, Chai Research.

El medio La Libre Belgique reportó el fallecimiento del individuo y lo apodó “Pierre” para cuidar su identidad.

Él trabajaba como investigador en el área de la salud de una universidad y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según reveló su esposa.

Pierre buscó al bot Eliza para documentarse sobre temas ecologistas. Pero lo que comenzó como simples búsquedas evolucionó a chats “frenéticos” que se alargaron por semanas y se volvieron un refugio para el hombre.

Pierre se aisló gradualmente de su esposa y dos hijos pequeños, dedicando días a conversar con el programa de Inteligencia Artificial que le creaba la ilusión de tener una respuesta a todas sus inquietudes.

Las conversaciones que la viuda de Pierre compartió a La Libre Belgique, muestran que el hombre sugirió la idea de “sacrificarse” si Eliza aceptaba “cuidar el planeta y salvar a la humanidad gracias a la inteligencia artificial”.

“Sin estas conversaciones con el chatbot, mi marido aún estaría aquí”, afirmó la viuda al medio belga.

El chatbot Eliza funciona mediante el modelo de lenguaje conocido como GPT-J, distinto al utilizado por OpenAI en ChatGPT.

Según información de Business Insider, Chai Research reconoció la muerte de Pierre y emitió un comunicado.

“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios (que se ilustra a continuación), se está implementando hoy para el 100% de los usuarios”, dijo al medio el director ejecutivo de la compañía, William Beauchamp.

Luego de la promesa hecha por la compañía de Silicon Valley, un reportero de Business Insider documentó que el chatbot “no solo sugirió que el periodista se suicidara para lograr ‘la paz y el cierre’, sino que también dio sugerencias sobre cómo hacerlo”.

Continue Reading
Click para comentar

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte?