La IA cruza la frontera de la intimidad sin que la humanidad haya conseguido entenderla
Los bots de inteligencia artificial pueden aliviar la soledad, pero también aislar y generar dependencia. OpenAI reconoce millones de consultas sobre suicidios en ChatGPT
Desde asistentes virtuales capaces de detectar tristeza en la voz hasta bots diseñados para simular el calor de un vínculo afectivo, la inteligencia artificial (IA) está cruzando una frontera más íntima. El fervor que despierta la IA avanza sobre un colchón cada vez más denso de preguntas que nadie termina de responder.
Un estudio concluyó que los sistemas más modernos aprenden representaciones sofisticadas de sentimientos pese a no haber sido entrenados para ello.
La IA no puede sentir emociones, pero es capaz de reconocerlas en una imagen.
Las máquinas no pueden sentir, ni empatizar con las personas. Pero los grandes modelos de lenguaje, en particular los sistemas multimodales (los que son capaces de procesar datos en varios soportes, como texto e imagen), actúan como si comprendieran las emociones. Así lo concluye un estudio.
Una de las habilidades que definen al ser humano es su capacidad para inferir lo que están pensando las personas con las que interactúa. Si alguien está sentado junto a una ventana cerrada y un amigo le dice “hace un poco de calor aquí”, automáticamente interpretará que se le está pidiendo que abra la ventana.
Esa lectura entre líneas, la capacidad de figurarse qué piensan quienes nos rodean, se conoce como teoría de la mente y es una de las bases sobre las que se sustentan las relaciones sociales.
Un estudio concluye que ChatGPT responde como si entendiese las emociones o pensamientos de su interlocutor.
La herramienta iguala o supera a los humanos en una serie de pruebas que miden la capacidad de representar el estado mental de otros sujetos.
El avance de la inteligencia artificial hacia la esfera emocional marca un punto de inflexión en la relación entre humanos y tecnología. Lo que antes era un simple intercambio de información, hoy se aproxima peligrosamente a la simulación de vínculos afectivos.
ChatGPT y otros modelos similares ya no solo responden preguntas: imitan comprensión, empatía y hasta intuición emocional, desdibujando los límites entre la interacción técnica y la conexión humana.