En el actual capitalismo de plataformas conectivas y algoritmos generativos se profundiza cada vez la tendencia hacia la digitalización y automatización del trabajo intelectual. La masificación de asistentes de IA (como Gemini, Chat GPT, Midjourney, Dall-E, Stable Diffusion y muchos otros) genera desafíos en los órdenes cognitivo, cultural y político.
Los sesgos culturales de la concentración económica
Uno de los desafíos es la enorme capacidad económica, tecnológica y humana necesaria para el desarrollo de la IA: es preciso contar con una infraestructura socio-tecnológica de gran escala para implementar modelos de lenguaje que sean utilizados en todo el mundo. Ello conlleva a que sean pocos países los que pueden liderar proyectos de estas características, dando como resultado una disputa geopolítica entre Estados Unidos y China. Por lo que las Naciones Unidas ha advertido que esto puede profundizar desigualdades económicas, ya que los países subdesarrollados quedan excluidos de la innovación tecnología.
Esta propiedad concentrada de los asistentes de IA de uso masivo produce, por un lado, inequidades sociales debido a que los valores e intereses subjetivos, culturales y corporativos de los desarrolladores están presentes en su funcionamiento. Lo cual también se manifiesta en sus destinatarios: los usuarios más activos de Chat GPT tienen entre 18 y 24 años y la mitad de ellos tiene título universitario. De hecho, especialistas indican que este tipo de programas tienen los valores de un varón blanco, universitario y de la costa oeste de EEUU.
Por otro lado, la información generada en estos programas (out put) promueve sesgos cognitivos, ya que estos sistemas transcriben las prenociones y prejuicios de las personas que los desarrollan y financian. Además, reproducen estereotipos de raza, género o clase difundidos en algunos países hacia nuevos idiomas o culturas. Por un ejemplo, un estudio al respecto ha detectado que los datos de entrenamiento tienen estereotipos –especialmente de la cultura norteamericana– que son perjudiciales en diferentes países.
Declive de las habilidades cognitivas
La utilización de asistentes de inteligencia artificial en el trabajo intelectual se caracteriza por una creciente delegación desde las personas hacia programas multimodales que realizan tareas cognitivas y simbólicas. Las operaciones dedicadas a la búsqueda de datos, la interpretación y edición de textos, el cálculo y la estadística son cada vez más desarrolladas de manera maquínica.
Este tipo de construcción socio-tecnológica de información y conocimiento se basa en interacciones, inscripciones y desplazamientos entre agentes humanos y no-humanos en un mismo ensamblaje socio-tecnológico. Esto habilita a que una persona no se dedique a realizar tareas repetitivas sino a actividades creativas. Por ejemplo, permite aumentar la productividad científica mediante el uso de chatbots informacionales (como Claude o Perplexity) para preparar y revisar artículos académicos.
Sin embargo, a la vez puede ser uno de los factores que incida en el deterioro en la capacidad cognitiva y reflexiva de los humanos: un relevamiento de la OECD evidenció que en los últimos años se observa –a escala mundial– un declive de la alfabetización en lengua y matemática entre los adultos. En la mayoría de los países la competencia en lectoescritura y el rendimiento en aritmética ha disminuido e incluso se evidencian dificultades para el razonamiento matemático al evaluar afirmaciones simples o para integrar múltiples piezas de información.
Pensar y actuar como algoritmos
Millones de personas experimentan el uso de asistentes de inteligencia artificial: están cada vez más entrenadas en sus gramáticas de funcionamiento, por lo que logran que sus resultados sean más útiles, precisos, veloces y eficientes. Ahora bien, ello implica suponer que, así como las personas entrenan a estos asistentes para optimizarlos, también la inteligencia artificial nos está entrenando para predecir, pensar y actuar como algoritmos. Esta creciente capacidad de agencia y productividad maquínica de imágenes, videos, audios y textos postula potencialidades e incertidumbres en torno a las formas de creación socio-tecnológica del conocimiento, la autenticidad de las creaciones, la veracidad de la información y los sesgos y estereotipos de raza, clase y género que reproducen.
Autor imagen: Mahbod Akhzami