La inteligencia artificial (IA) se ha colado en la vida cotidiana. Herramientas como ChatGPT son consultadas diariamente por millones de personas. La facilidad de uso y su enorme capacidad para analizar ingentes cantidades de datos la han convertido en un asistente valioso. Se utiliza como instrumento para hacer predicciones de todo tipo: desde la prevención de desastres naturales, el diagnóstico médico o el seguimiento financiero, hasta usos más lúdicos o íntimos. Entre todas las oportunidades y riesgos de su uso, merece especial atención el vínculo emocional que los usuarios están empezando a establecer con el sistema. Consejero emocional, asistente personal, paño de lágrimas o colega con el que pasar un buen rato. Cada vez son más las personas que trenzan lazos afectivos con ChatGPT. Son relaciones que nunca fallan, no hay horarios que las interrumpan, ni cansancio ni enojo que las deteriore. La IA conversacional siempre está disponible, siempre es atenta y siempre muestra una mirada libre de prejuicios. Básicamente, porque no es humana. Aunque darle un barniz personal es sumamente fácil. En un diálogo, a ChatGPT se le puede asignar un nombre, un género, una personalidad e incluso un rostro. Es cierto que el propio asistente de IA advierte de que «no es una persona ni tiene identidad individual», pero cambiar nuestra percepción de relación no resulta sencillo. De un modo casi instintivo, la emoción se entrelaza con la razón y se abre un espacio de correspondencia: reflexiones que se comparten, decisiones que se consultan, enfados que se vuelcan. Tener relaciones de amistad o emocionales con una plataforma de generación de texto puede provocar efectos positivos como la sensación de compañía, el entretenimiento o el apoyo psicológico. Pero existe el riesgo de que sus características acaben impregnando las relaciones reales. Un psicólogo no está disponible a todas horas, tampoco la amistad es una relación donde la escucha fluya en una sola dirección. La reciprocidad y la aceptación del otro, en sus buenos y malos días, también forman parte del aprendizaje humano.
Más allá del riesgo emocional, existe una clara amenaza medioambiental. El uso de inteligencia artificial generativa no está exento de un elevado coste ecológico. Cada interacción con el sistema implica un gasto significativo de recursos materiales y energéticos. Puede requerir hasta medio litro de agua para refrigerar los servidores que procesan cada pregunta a ChatGPT. La huella hídrica de esta tecnología representa un desafío urgente para un planeta sediento: alrededor del 36% de la población mundial -unos 2.400 millones de personas- vive en regiones con escasez de agua, según la ONU.
Herramientas como ChatGPT han irrumpido en nuestras vidas con tal inmediatez que aún carecemos de un criterio responsable colectivo sobre su uso. Aunque su utilidad es incuestionable, conviene advertir sobre el coste que conlleva un uso indiscriminado. Por higiene emocional, por bienestar colectivo y por responsabilidad medioambiental.