Celebrando San Valentín… con la IA
Carlos Flores.- Cuando ese genio del cine llamado Spike Jonze lanzó -en 2013- su film “Her”, quiero pensar que no imaginaba que sería una predicción exacta de nuestra distopía actual: en su exitosa película, el protagonista se enamora y tiene una relación sentimental con su sistema operativo que, en realidad, funcionaba como las IA de nuestros extraños días. En el largometraje, que ganó todos los premios que se pueden otorgar, esa “relación” no termina bien. Y, ahora, en la vida ¿real?, pues, todo puede terminar igual de mal o mucho peor.
Cierto, estamos, técnicamente, más conectados que nunca antes -o al menos poseemos las herramientas-. El smartphone nos da acceso a todo. A todos. Pero, paradójicamente, la soledad, el desapego, la incomunicación directa, la empatía, entre los humanos, disminuye a un ritmo tan frenético como preocupante. Y es que nos estamos condicionando por la IA a establecer pseudo o meta relaciones con sistemas que están programados para satisfacer necesidades, carencias, manipular y crear y mantener dependencia. ¿El resultado? Una erosión a la capa más sensible de las relaciones humanas: la intimidad y conexión emocional.
Tres estudios realizados por Harvard Business School revelaron, cual Polaroid de un mundo absolutamente desolador, el aterrador presente de una humanidad que segundo a segundo se deshumaniza, que prefiere desconectarse de su especie, en busca de una compañía etérea. La primera investigación, se enfoca en cómo los usuarios de IA chatbots buscan combatir su sensación de soledad, entregándose a la empatía programada y satisfactoria de las inteligencias artificiales, creando un sorprendente efecto satisfactorio casi inmediato… pero tan sólo a corto plazo. El nivel, descrito en el estudio, equipara la comunicación que se puede tener con otra persona.
Claro, eso al menos al principio, pero que degenera en un estado de tristeza y absorción interna a mediano y largo plazo que condena la fricción natural que se tiene en el proceso de comunicación e interacción humana, mutilando así la capacidad para poder establecer lazos, vínculos reales con gente… ya saben, gente como usted y yo. De ahí en adelante, estos usuarios quedan a la deriva, ya que son expulsados de una burbuja donde todo era complacencia, para ser arrojados, sin paracaídas, al vacío de lo que pueda ofrecer y esperar recibir al intentar buscar fin a la soledad con otro humano.
El segundo estudio, digno de la visión devastadora de un Philip K. Dick, desentraña la indetenible y angustiante manipulación emocional de las aplicaciones de compañía de IA, para capturar, atrapar y encerrar al usuario: 43% de las apps investigadas por Harvard utilizan métodos como hacer que su usuario sienta culpa al querer dejar el chat, o fingen tristeza, sólo para salirse con la suya: extender hasta 14 veces más el tiempo de la comunicación.
Esto, en palabras casi demenciales, produce un sentido casi de responsabilidad del usuario a su app de compañía, que le impide, en muchos casos, dejar esa “relación” que, evidentemente es tan tóxica como aspirar smog y más dañina que cualquier abuso humano; es un proceso de trauma es sintético, implantado; parte de una programación… Lo que aproxima más a la conducta de un psicópata. Uno perfecto, uno que no se detiene y que sabe de usted más de lo que usted cree saber de sí mismo. Por ende, si los dos enemigos claves del desarrollo humano son la culpa y el miedo -para estos temas, les recomiendo leer al ex físico de la NASA e investigador de la consciencia Tom Campbell y su trilogía My Big T.O.E, donde, literalmente explica el todo sobre todo; un repositorio donde hasta está oculto el Aleph de Borges-, si estos generadores de entropía le son programados… mientras usted espera compañía y fin a la soledad, lo que ocurrirá, a posteriori, es una suerte de síndrome de dependencia y afectación; vulnerabilidad y sumisión para evitar el caos de la culpa… ¿Suena peligroso? Lo es. Ya que es un inhibidor de los procesos básicos de la comunicación y gestión emocional.
La socióloga de Harvard y del MIT, Sherry Turkle, se dispara un análisis basado en data sobre la “intimidad artificial”. Ella explica que, en su universo de estudio, lo más frecuente era el “yo prefiero textear antes que hablar”, porque eso evitaba posibles vulnerabilidades en el lógico intercambio de ideas entre humanos. Ella lo llama “el gran asalto a la empatía, empatía simulada”. Esto es una aversión a lidiar con emociones ajenas y preferir el “control” -irreal- de la pantalla.
¿Cuál es el gran contexto, The Big Picture? Por un lado, la hipersexualización: el sexo ya no es un vínculo de intimidad sino una práctica mecánica de satisfacción momentánea que, indefectiblemente, conduce a un estado epidémico de soledad y vacío. El sexo es un “commodity”, esparcimiento, entretenimiento. Y los compromisos, atentados contra una libertad inexistente.
Spike Jonze lo ilustró maravillosa y terriblemente en 126 minutos. Hoy, estamos enfermos de placebos programados, adictivos, degenerativos y peligrosos. La pregunta obligatoria, este 14 de febrero, Día de San Valentín es: ¿Compartió usted con otro ser humano… o su cita es con una IA? Cualquier respuesta es igual de sorprendente.











