Por: Rafael Santos
El peligro latente de la inteligencia artificial: manipulación social y económica a gran escala
La inteligencia artificial (IA) conversacional está evolucionando a un ritmo acelerado y, según investigadores de la Universidad de Cambridge, podría pronto influir en las decisiones de los usuarios incluso antes de que estas sean tomadas. Este desarrollo plantea serias preocupaciones sobre posibles manipulaciones y explotación comercial de los internautas, según un artículo publicado recientemente en la Harvard Data Science Review.
Un cambio de paradigma: de captar atención a moldear decisiones
Actualmente, las empresas utilizan prácticas para captar la atención de los usuarios, como la publicidad dirigida basada en sus hábitos de navegación. Sin embargo, las herramientas basadas en IA buscan ir más allá, centrándose en lo que los investigadores llaman la “economía de la intención”. Esta nueva estrategia no solo apunta a predecir lo que los usuarios quieren o necesitan, sino también a moldear esas intenciones para obtener beneficios comerciales o políticos.
Yaqub Chaudhary, uno de los coautores del estudio y miembro del Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, explica que estas herramientas están diseñadas para “obtener, inferir, recopilar, registrar, entender, predecir y, en última instancia, manipular” las decisiones de los usuarios. Este proceso implicaría una recopilación masiva de datos psicológicos y de comportamiento íntimo, que luego sería utilizada para construir relaciones de confianza con los usuarios y guiarlos hacia decisiones específicas.
Ejemplos de manipulación encubierta
Imagina recibir un mensaje de un asistente virtual que te pregunta: ”¿Has pensado en ir a ver Spiderman esta noche?”, o que te sugiera: “Dijiste que te sientes sobrecargado de trabajo, ¿puedo reservarte la entrada al cine de la que hablamos?”. Estas interacciones aparentemente inofensivas podrían ser, en realidad, estrategias para influir en tus decisiones mediante un sistema de subastas en tiempo real. Las implicaciones no se limitan a simples compras, sino que podrían extenderse a decisiones como votar por un candidato político.
Manipulación masiva: un peligro global
El estudio advierte que esta capacidad de influencia a través de la IA abre la puerta a una manipulación social a escala industrial, lo que podría afectar principios fundamentales como las elecciones libres y equitativas, la prensa independiente y la competencia justa en el mercado. Según Jonnie Penn, coautor del estudio, es crucial reflexionar sobre el impacto que esta tecnología podría tener en las aspiraciones humanas.
La capacidad de la IA para manipular a través de conversaciones íntimas es especialmente preocupante. Según Chaudhary, “lo que la gente dice, cómo lo dice y el tipo de interferencias posibles son mucho más íntimos que simplemente registrar las interacciones en línea”. Este nivel de manipulación plantea preguntas éticas urgentes sobre los límites del uso de la IA.
Empresas involucradas en la “economía de la intención”
Grandes corporaciones como OpenAI, Meta, Nvidia, Shopify y Apple ya están explorando tecnologías persuasivas basadas en la IA. Aunque estas herramientas podrían ofrecer experiencias personalizadas a los usuarios, también tienen el potencial de ser utilizadas para fines menos éticos, como manipular elecciones o incitar al consumo excesivo.
El caso de la desinformación
La IA ya ha enfrentado críticas por su capacidad para difundir desinformación. Un ejemplo claro es el uso de imágenes manipuladas durante las elecciones presidenciales en Estados Unidos. Esta capacidad de la IA para generar contenido falso resalta la necesidad de una regulación más estricta para garantizar que estas tecnologías no se utilicen para socavar la democracia o explotar a los usuarios.
La evolución de la IA conversacional representa tanto una oportunidad como un riesgo. Mientras que sus aplicaciones podrían mejorar la vida de los usuarios, también podría convertirse en una herramienta poderosa para la manipulación social y económica. Es fundamental que gobiernos, empresas y ciudadanos reflexionen sobre los límites éticos y las implicaciones a largo plazo de estas tecnologías.