Tomás Balmaceda: “La IA no opera ni se entiende en el vacío sino que está conectada con los humanos”
- cidem7
- 19 mar
- 7 Min. de lectura
En esta entrevista imperdible para el CIDEM, el reconocido filósofo reflexiona sobre las potencialidades y los peligros de la inteligencia artificial generativa en ámbitos como la producción, el trabajo y la cultura.

Tomás Balmaceda es Doctor en Filosofía, investigador del CONICET, profesor universitario y periodista. En UNTREF, se desempeña como docente de la Diplomatura Superior en Inteligencia Artificial y Sociedad. Autor de casi una decena de libros y de numerosos artículos, posee una enorme virtud: traducir problemas complejos a un lenguaje sencillo y accesible al gran público. En tanto divulgador, nos concedió una entrevista para pensar las tramas detrás de la tecnología de la que hoy habla todo el mundo, la IA generativa.
Estamos ante un nuevo horizonte para las empresas y los emprendimientos con la expansión de la IA generativa. ¿Cómo evalúas el impacto de estas tecnologías en el mundo de la producción? ¿Qué transformaciones o reacomodamientos está generando en términos productivos y organizacionales?
El auge de la IA generativa está efectivamente abriendo un nuevo horizonte para empresas y emprendimientos, transformando profundamente el mundo de la producción. Por ahora sus propuestas más revolucionarias son promesas pero debemos estar atentos porque se están generando una serie de reacomodamientos tanto productivos como organizacionales.
En términos productivos, la IA destaca por su capacidad de automatizar tareas repetitivas y generar contenido, lo que incrementa la eficiencia y permite la creación de flujos de trabajo novedosos. Además, facilita la personalización de contenido, posibilitando experiencias más relevantes y significativas para los usuarios. Se supone, también, que la IA podría democratizar la creatividad, al reducir las barreras de entrada para la creación de contenido, lo que permite a individuos y emprendimientos más pequeños participar activamente. Sin embargo, este avance tecnológico también exige la adquisición de nuevas habilidades por parte de los trabajadores, quienes enfrentan una creciente precarización.
En este contexto, las habilidades humanas que suelen ser calificadas como “blandas” (la originalidad, el pensamiento crítico, la inteligencia emocional y la evaluación ética) adquieren un valor aún mayor. Organizacionalmente, las empresas necesitan reajustar su fuerza laboral, enfocándose en roles que requieran habilidades humanas únicas, como el pensamiento estratégico y la toma de decisiones éticas.
La colaboración entre humanos y sistemas de IA se vuelve cada vez más común, lo que exige nuevas estructuras y flujos de trabajo. Además, surge la necesidad de modelos organizacionales innovadores para aprovechar al máximo las capacidades de la IA sin dejar a los humanos de lado. Es crucial que las organizaciones fomenten una cultura de aprendizaje continuo y desarrollen marcos éticos para el uso responsable y transparente de estas tecnologías. Sin embargo, es importante reconocer los desafíos y consideraciones que acompañan a estos avances, como la desigualdad económica y la pérdida de control humano. Por lo tanto, se requiere una evaluación crítica constante de cómo las nuevas tecnologías alteran los sistemas existentes. En última instancia, la IA generativa ofrece oportunidades significativas para mejorar la productividad y fomentar la innovación, pero las organizaciones deben abordar proactivamente los desafíos éticos y sociales para asegurar su implementación responsable y sostenible.
Una de las grandes discusiones alrededor de estas tecnologías es que están reemplazando cada vez más empleos humanos. ¿Cómo analizas esta situación? ¿Qué diferencias encontrás entre las tareas realizadas por una IA y las realizadas por un humano?
Como mencioné más arriba, uno de los dilemas centrales que plantea la IA generativa es el desplazamiento de empleos humanos, una tendencia que parece avanzar rápidamente. Si bien las decisiones empresariales se basan en criterios de productividad, eficiencia y rentabilidad, el desempeño de la IA difiere del humano.
Mientras que los resultados de la IA pueden ser mayores en menor tiempo, tienden a ser estandarizados y no siempre son correctos. Los humanos no sólo podemos aportar singularidad y originalidad, sino también la comprensión contextual que no tiene una máquina alimentada con registros históricos. Somos muy buenos integrando teoría y práctica, combinando conocimiento académico con experiencias del mundo real.
Además, por supuesto, los humanos pueden priorizar consideraciones éticas y la responsabilidad social. La IA opera dentro de parámetros establecidos, mientras que los humanos poseen una brújula moral.

Tomando en cuenta que la IA generativa ha logrado copiar rasgos humanos de manera notable y que su participación en el mundo laboral se está profundizando, ¿qué escenarios vislumbras en el futuro?
Considerando los atributos humanos que la IA ha logrado reproducir mediante entrenamiento (como el lenguaje, las interacciones y el análisis de imágenes, por ejemplo) creo que no debe sorprender que el avance de la IA generativa pueda despertar en algunas personas miedos “apocalípticos”. Si las máquinas absorben progresivamente cada vez más tareas, podrían desplazar a los humanos y generar un desempleo crónico, tal como sucedió en la Revolución Industrial.
Existen, sin embargo, otros escenarios, en donde la mayor integración máquina-humano sea más orgánica, con trabajos híbridos o cyborgs que potencien las capacidades humanas. No por eso será ideal: ¿Y si la tecnología crea una "población excedente" que no encuentra rol ni empleo? ¿Y si las élites deciden que no vale la pena invertir en la salud, por ejemplo, de las masas de estas personas?
Lo que suceda con la tecnología dependerá de los límites que le pongamos y los terrenos que dejemos libres. Hoy parece ser una herramienta más del neoliberalismo, generando desigualdad y daño ambiental. Pero bien podrían surgir nuevos modelos organizacionales que aprovechen las capacidades de la IA, valorando habilidades humanas como la originalidad y el pensamiento crítico.
La IA no opera ni se entiende en el vacío, sino que está conectada con los humanos. Quizá en el futuro se busque una “gobernanza algorítmica” bajo la idea de que la forma más eficiente de manejar los asuntos del estado es con un “Rey IA”. Debemos resistir esos cantos de sirena.
Sabemos que las tecnologías no son neutrales y que han sido creadas bajo contextos sociales, culturales y económicos determinados. En ese sentido, ¿la IA generativa desarrollada en las grandes potencias como Estados Unidos y más recientemente China, no resulta condicionante para nosotros, no podría haber incluso una voluntad colonialista detrás? ¿No considerás necesario que creemos nuestras propias tecnologías desde el Sur global?
Lejos del viejo axioma popular “la tecnología no es ni buena ni mala sino que depende de cómo se la use”, hoy es innegable que estos desarrollos incluida la IA generativa, no son neutrales valorativamente y están intrínsecamente ligadas a contextos sociales, culturales y económicos específicos.
El hecho de que su epicentro se encuentre en Estados Unidos y que esté creciendo tanto en China plantea interrogantes sobre su posible condicionamiento y voluntad colonialista hacia otros países, especialmente aquellos del Sur global. La transferencia de tecnología a menudo exige una adaptación cultural, lo que puede resultar problemático cuando los países en desarrollo intentan adoptar tecnologías modernas sin comprometer sus tradiciones o su identidad.
Esta suerte de colonialismo de datos ya no es entre un país rico y otro en vías de desarrollo sino entre grandes corporaciones tecnológicas y poblaciones pobres. Los datos de individuos y relaciones sociales son apropiados por las plataformas y usados para generar ganancias, explotando a las personas a través de sus propios datos.
Es necesario contextualizar y sensibilizar sobre los desafíos de la política de la IA, mostrando su faceta ideológica. La creación de tecnologías desde el Sur global es una necesidad para evitar el condicionamiento y la explotación y para promover formas de gobierno y gobernanza más democráticas. Es esencial apoyar la responsabilidad y crear barreras contra el totalitarismo de la IA.

Algo que me parece interesante de tu abordaje es que cuestionas bastante esto del carácter disruptivo que tienen estas tecnologías. ¿Podrías explayarte sobre el tema?
Soy de los que creen que el mote de “disruptivas” de las tecnologías puede ser engañoso, ya que a menudo se integran en estructuras capitalistas existentes en lugar de subvertirlas fundamentalmente. Si pensamos en qué es la vanguardia en el arte, por ejemplo, veremos que está ligado al choque y lo impredecible, experimentando visual y artísticamente. La lógica empresarial en la era neoliberal también lidia con lo impredecible pero no experimenta ni rompe.
Creo que si no es usado bien, el uso de "lo nuevo" en términos como “la nueva tecnología” o “los nuevos medios” permite a la cultura continuar en un estado de amnesia histórica, saltando de un tema a otro. Creo que llamar la atención sobre este punto es un remedio a la exageración que rodea a las TI y su obsesión con el futuro.
La “revolución” de Internet nos ha dejado con canales de streaming que copian al Marcelo Tinelli del siglo XX y la democratización de la información se ha desintegrado en una avalancha de desinformación y fake news. Quizá sea momento de pensar qué es lo verdaderamente nuevo de la IA… tal vez sólo sea su velocidad.
¿Cómo podemos prepararnos para un futuro en el que la IA sea una parte integral de nuestras vidas, tanto a nivel individual como colectivo?
Prepararnos para un futuro con la IA como parte integral de nuestras vidas requiere un enfoque multifacético, abarcando tanto el ámbito individual como el colectivo. A nivel individual, es fundamental cultivar habilidades como el pensamiento crítico, la alfabetización digital y mediática y la capacidad de adaptación. Debemos aprender a cuestionar la información, comprender los sesgos algorítmicos y mantenernos actualizados con los avances tecnológicos.
A nivel colectivo, es esencial promover la educación y la conciencia sobre la IA, fomentando el diálogo público y la participación en la toma de decisiones. En eso las universidades y el sistema educativo tienen un rol central. Los gobiernos y las organizaciones deben establecer marcos éticos y regulatorios para garantizar que la IA se utilice de manera justa y equitativa. La inversión en investigación y desarrollo de IA ética es fundamental, así como el apoyo a iniciativas que promuevan la inclusión y la diversidad en el campo de la IA. Es crucial abordar las posibles consecuencias negativas de la IA, como el desplazamiento laboral y la desigualdad económica, mediante la implementación de políticas de bienestar y programas de actualización profesional.
Prepararnos para un futuro con la IA implica un compromiso continuo con el aprendizaje, la adaptación y la responsabilidad ética, tanto a nivel individual como colectivo.
Comments