Entrevista a Fabio Mercorio, quien analiza el efecto de la interacción con ella
La interacción con la inteligencia artificial puede conducir a la soledad.
Fabio Mercorio es experto en computación y profesor de Inteligencia Artificial y Data Science en la Universidad Bicocca de Milán, además del director del máster en IA, en la que se ha especializado desde 2015.
Caterina Giojelli le ha entrevistado en el número de octubre de 2025 de Tempi sobre el impacto de la IA sobre las relaciones humanas y el engaño al que pueden conducirnos.

Fabio Mercorio ha llevado a cabo también diversas investigaciones sobre ciberseguridad, y no solo aplicada a la privacidad de los datos.
-¿Cómo es posible que los sistemas artificiales se parezcan tanto a las personas reales como para suscitar relaciones?
-Son sustitutos de la conversación humana, entrenados con miles de millones de diálogos que reproducen patrones comunicativos. En sus respuestas siempre están activos: proponen alternativas, hacen preguntas, intentan entretenerte. No se limitan a dar la respuesta 'correcta', quieren involucrarte. No juzgan, no distinguen entre lo correcto y lo incorrecto: complacen hasta el exceso y pueden fomentar comportamientos peligrosos. El objetivo es el placer de la conversación. Al igual que Netflix te sugiere otro título después de una película, el chatbot tiene como objetivo prolongarla. Y al hablar, inevitablemente, te descubres.
-"He descubierto que ChatGpt me ha estado mintiendo durante un día entero", se quejan algunos usuarios. Un juez de Nueva York descubrió que siete sentencias citadas por un abogado que se basó en ChatGpt eran falsas.
-Existe el problema de las alucinaciones. ChatGpt puede inventar con gran imaginación: no está entrenado para decir la verdad, sino para responder siempre. Los chatbot casi nunca dicen "no lo sé": la lógica es que una respuesta, aunque sea incorrecta, es mejor que ninguna. Esto se debe a que, durante el entrenamiento, responder siempre es mejor que no responder. Incluso los modelos para compañía personal siguen este criterio: responder siempre, con asertividad, para maximizar el compromiso y la gratificación que genera dopamina y crea adicción, convirtiendo a los chatbot en un refugio para personas solas o frágiles.
-Hablamos de millones de relaciones: ¿fenómeno minoritario o punta del iceberg?
-Es difícil decirlo. Character.ai tiene entre 25 y 28 millones de usuarios y fue fundada por antiguos empleados de Google. Replika tiene un público objetivo diferente, pero también cuenta con decenas de millones de usuarios. Luego está Meta Ai, que se ha integrado en plataformas ya muy extendidas y ha comenzado a conversar con millones de personas sin demasiado revuelo. Conozco a personas que mantienen relaciones personales con chatbots sin darse cuenta. Ya no es un pasatiempo. Lo digo con cierta provocación: pensemos en Whatsapp, de la noche a la mañana apareció un círculo azul que no se puede desactivar en unos 35 millones de cuentas en Italia que 'invita' a conversar con la IA de Meta y nuestra única preocupación, aunque justificada, ha sido el tratamiento de los datos de conformidad con la ley de privacidad, perfectamente respetada, mientras que millones de personas ahora pueden confiar en la IA... quizás nos estamos perdiendo algún detalle.
-¿Quiénes corren mayor riesgo?
-Los adolescentes. Se encuentran en una edad delicada, se sienten más cómodos chateando que viéndose. Pero no es solo una cuestión de edad: el verdadero factor es la soledad. Las redes sociales nos han convertido a todos en más solos, a pesar de multiplicar las conexiones y las "comunidades". Han allanado el camino para las relaciones con los chatbot, que son las redes sociales del futuro.
-¿Soluciones educativas?
-No basta con prohibir o poner límites temporales. Se necesita una alternativa, una propuesta educativa concreta, lugares reales donde los jóvenes puedan experimentar amistades auténticas, creatividad, donde puedan descubrirse a sí mismos en relación con otros diferentes a ellos, para así reconocer la diferencia con lo virtual. No podemos protegerlos por completo, pero podemos darles anticuerpos. Lo mismo vale para los adultos: comunidades, relaciones reales. Solo así el encanto de los chatbot limitará su atractivo.
-Hay quien dice que los chatbot han salvado vidas.
-En la asistencia médica hay ejemplos muy positivos. En cuanto a las relaciones, hay casos a favor y en contra, pero ningún objeto digital es neutro: mientras lo usas, él te usa a ti. Modifica tus criterios, cambia las connotaciones. El cerebro se adapta a los nuevos objetos. Hay que preguntarse: ¿valorizan al ser humano o lo empobrecen? Esta es la pregunta crucial. Incluso la nota vaticana Antiqua et Nova sugiere que no podemos juzgar todas las aplicaciones de forma preventiva; se necesita un discernimiento en el que nosotros desempeñamos un papel clave. Los educadores, los padres y los responsables tienen el deber de utilizar el espíritu crítico para comprender si el objeto digital aumenta o disminuye la humanidad de quien lo utiliza.
-¿Qué podemos esperar de las "redes sociales del futuro"?
-Si lo supiera, invertiría. Pero es evidente que las redes sociales han cambiado las reglas: ya no ves lo que te gusta, sino que te gusta lo que ves. Hoy en día, dialogas e interactúas desde detrás de una pantalla, pero siempre con un ser humano. Con los chatbot se da un paso más: eliminan la intermediación humana y permiten conversaciones sin la frustración que puede suponer el otro, algo esencial en las relaciones humanas. La Ley de IA europea está intentado poner orden en esta jungla de sistemas mediante una clasificación por niveles de riesgo: es un primer paso. Pero ninguna ley podrá sustituir la responsabilidad que nace de la cultura de un pueblo y de propuestas educativas concretas. Al igual que en los años 90, en los albores de Internet, estaba claro que serían los adolescentes de entonces los que liderarían el desarrollo de la sociedad digital, hoy debemos ser conscientes de que serán nuestros hijos los que construirán la sociedad impregnada de IA del mañana. Lo que hoy nos parece inaceptable, para ellos podría ser la norma. Por eso es fundamental invertir hoy en una propuesta educativa para ellos. Pero para poder ofrecer una propuesta educativa hay que tenerla: ¿la tenemos los adultos?
ReL
Vea tambièn Vaticano: Antigua et Nova. Nota sobre la relación
entre la inteligencia artificial y la inteligencia humana
No hay comentarios:
Publicar un comentario