Escuchar hablar de inteligencia artificial hoy es, casi siempre, escuchar una promesa: eficiencia, automatización, creatividad aumentada, decisiones más racionales. La IA aparece como la culminación del progreso técnico, una extensión sofisticada de la razón humana capaz de optimizar desde líneas de código hasta políticas públicas. En este discurso dominante, la tecnología es neutral y su avance, inevitable.
Sin embargo, pensar la inteligencia artificial desde la dialéctica obliga a incomodar esa certeza. No se trata de negar su potencia, sino de entenderla como lo que realmente es: un proceso histórico atravesado por contradicciones.
Desde la perspectiva de Georg Wilhelm Friedrich Hegel, todo desarrollo implica tensión entre opuestos. La IA no es la excepción. Su promesa de eficiencia convive con una creciente opacidad: sistemas que toman decisiones sin que podamos explicar del todo cómo lo hacen. Su capacidad de automatización coexiste con nuevas formas de precarización laboral. Y su aparente democratización del conocimiento ocurre, paradójicamente, en un contexto de alta concentración tecnológica en pocas corporaciones.
Aquí aparece la antítesis: la inteligencia artificial no es simplemente una herramienta neutral, sino un espacio donde las contradicciones sociales se condensan en forma de algoritmo.
Desde una lectura del materialismo histórico, la IA puede entenderse como una nueva fuerza productiva. Pero, como toda fuerza productiva en el capitalismo, no está desligada de relaciones de poder. Los datos que alimentan los modelos no son abstractos: son producto de prácticas sociales, de desigualdades históricas, de estructuras económicas. En ese sentido, los algoritmos no sólo procesan información, sino que reproducen, y en ocasiones amplifican, los sesgos del mundo que los genera.
La contradicción central se vuelve entonces más profunda: el ser humano crea sistemas inteligentes para ampliar su capacidad de acción, pero esos mismos sistemas comienzan a condicionar las decisiones humanas. Lo que inicialmente es objeto —la máquina— empieza a operar como sujeto. Sistemas de recomendación que moldean preferencias, modelos predictivos que influyen en políticas de seguridad o movilidad, algoritmos que determinan qué información vemos y cuál no. La IA no solo refleja la realidad: empieza a producirla.
Este desplazamiento abre la puerta a una forma contemporánea de alienación. Ya no se trata únicamente de la separación entre el trabajador y el producto de su trabajo, sino de una mediación algorítmica que reorganiza la experiencia misma del mundo. En términos cercanos a Theodor Adorno, podríamos hablar de una radicalización de la racionalidad instrumental: todo se vuelve cuantificable, optimizable, procesable. Pero en ese proceso, lo humano corre el riesgo de reducirse a dato.
La síntesis, sin embargo, no puede ser un simple juicio moral, ni celebración ingenua ni rechazo tecnofóbico. La dialéctica no se resuelve eliminando uno de los polos, sino comprendiendo su movimiento. La inteligencia artificial es, en este sentido, un campo de disputa. Su dirección no está predeterminada: depende de cómo se diseñe, quién la controle, bajo qué intereses opere.
Pensar dialécticamente la IA implica, entonces, politizarla. Reconocer que detrás de cada modelo hay decisiones, que detrás de cada dataset hay historia, y que detrás de cada automatización hay una reorganización del poder.
La inteligencia artificial no es el futuro. Es el presente en el que las contradicciones del sistema se vuelven código.
Juan Francisco Gracia Sercado y Juan Salazar Vázquez son miembros del colectivo GNUistas
Rebelión ha publicado este artículo con el permiso de los autores mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.


