El mayor riesgo de la IA no es que nos sustituya. Es que nos haga pensar igual.
Es una realidad: desde hace años la digitalización ha reducido drásticamente la diferenciación. Por un lado, en la forma en la que las empresas se muestran frente a los demás. Las webs, que en muchas ocasiones se han convertido en la única imagen de la empresa y que suele ser la primera impresión que ésta da, las plataformas (pensemos en booking, por poner un ejemplo) y las lógicas de presencia digital fueron homogeneizando lenguajes, estructuras y maneras de presentarse.
Por otro lado, en la estandarización de procesos a través de herramientas tecnológicas como los ERP, los CRM, … que hicieron algo parecido con el interior de las organizaciones: en muchos casos, mataron la diferenciación en cómo se hacen las cosas, a través de la aplicación de mejores prácticas, procesos estandarizados y otros que, aunque en ocasiones supusieron una gran mejora ante la inexistencia de una lógica empresarial, en otras eliminaron las peculiaridades de ésta.
Hoy, la capa que está en juego es todavía más profunda. Lo que empieza a homogeneizarse ya no es sólo cómo nos mostramos ni cómo operamos, sino cómo somos: qué valoramos, cómo nos comportamos, cómo pensamos y cómo decidimos.

Así, una consecuencia cada vez más visible del uso de la IA en las organizaciones es la homogeneización de los resultados. Utilizar inteligencia artificial sin criterio (y, en ocasiones, incluso con él) amenaza la desviación. Porque la personalidad no solo afecta a la capacidad real de innovar. Afecta al sentido mismo de los resultados del trabajo, reduce el pluralismo y empuja hacia una convergencia que no necesariamente es positiva.
Porque cuando todas las organizaciones empiezan a apoyarse en las mismas lógicas, los mismos sistemas y los mismos patrones de validación, el riesgo no es solo parecerse más entre sí: es pensar de forma cada vez más parecida.
Para entender qué está ocurriendo conviene ponerse un poco técnicos. Durante las últimas décadas, disciplinas como las ciencias sociales han ido reconociendo cada vez más el valor de las personas como actores no neutrales, cuya subjetividad es indispensable para capturar la diversidad discursiva. Es decir, se ha ido consolidando la idea de que no hay conocimiento valioso sin perspectiva, sin contexto y sin interpretación. Sin embargo, en los últimos años, la expansión de una IA que prioriza la estandarización por encima de la complejidad contextual está empujando la gestión de la información y la toma de decisiones hacia una lógica crecientemente positivista. Una lógica que entiende la realidad como algo objetivo, neutro y accesible sin mediación, como si las soluciones no pudieran, o no debieran, construirse también desde lo aleatorio, lo subjetivo o lo situado.

De este modo, si antes la tecnología estandarizó la apariencia y después los procesos, ahora la IA corre el riesgo de estandarizar la interpretación. Y cuando se estandariza la interpretación, se empobrece la capacidad de una organización para producir sentido propio.
Ahí es donde aparece el verdadero riesgo. Si la realidad deja de entenderse como una construcción social e interactiva para convertirse en un dato “encontrado” y procesado por una IA hegemónica, entonces las personas pierden capacidad para generar conocimiento diverso. En su lugar, pasan a reproducirse los sesgos inherentes al sistema.

Porque la IA tiene sesgos. Y esos sesgos se originan, al menos, en tres vertientes: sesgos de entrenamiento, derivados de datos históricos sesgados; sesgos algorítmicos, vinculados a ponderaciones erróneas; y sesgos cognitivos, proyectados por quienes diseñan y programan estos sistemas. Algunos ejemplos son bien conocidos: desde fallos en sistemas de contratación como el de Amazon hasta softwares de perfilado criminal que perpetúan estereotipos raciales y de género. Pero hay muchos otros que son sutiles y permanecen ocultos.
Si lo que está en juego hoy es cómo somos, entonces no estamos hablando simplemente de eficiencia ni de productividad. Estamos hablando de criterio. De cultura. De la posibilidad de conservar una manera singular de comprender los problemas, relacionarse con la información y tomar decisiones. En otras palabras: de preservar aquello que hace que una organización no sea intercambiable.
Ahora bien, nada de esto implica demonizar la IA. Ni mucho menos. Se trata de una herramienta extraordinariamente potente. Pero precisamente por ello, hay que saber para qué utilizarla y, aún más importante, para qué no hacerlo. Existen distintos marcos para pensar su papel (como analista, como árbitro, como sujeto de investigación…), pero la realidad exige alejarse de una lógica binaria. No se trata de enfrentar opciones cerradas, como si solo pudiera ocupar un lugar u otro.
La integración ubicua de la IA en todos los contextos reclama una innovación metodológica urgente. Una que permita gestionar adecuadamente la información para transformarla en conocimiento; sostener sistemas de toma de decisiones basados en ese conocimiento; y, a partir de ahí, construir un trabajo verdaderamente colaborativo.

Porque, como decía Mark Twain: “Cada vez que se encuentra usted del lado de la mayoría, es tiempo de hacer una pausa y reflexionar”. Más aún cuando esa mayoría es artificial.