AI SNAKE OIL

La inteligencia artificial está cambiando industrias, economías y rutinas cotidianas, pero cuanto más se integra en nuestra vida, más importante se vuelve entender sus límites además de su potencial. El problema no es la IA en sí, sino la mezcla de entusiasmo, presión comercial y promesas exageradas que hacen que muchas aplicaciones se vendan como “magia” cuando en realidad funcionan a medias, o directamente fallan. Mirar la IA con criterio —con evidencia y sin histeria— es clave para que termine beneficiando a la sociedad.

Una primera idea central es que la IA puede ser útil y, al mismo tiempo, peligrosa si se usa sin reglas claras. Puede ampliar capacidades humanas (por ejemplo, creando contenido o ayudando a automatizar tareas), pero también puede profundizar sesgos, invadir la privacidad o consolidar desigualdades cuando se aplica en contextos sensibles solo por ahorrar costos o “optimizar” decisiones. En otras palabras: la pregunta correcta no es “¿la IA es buena o mala?”, sino “¿en qué casos agrega valor real y en cuáles conviene no usarla?”.

Cuando hablamos de herramientas que “crean” (texto, imágenes o video), su auge puede parecer repentino —ChatGPT, generadores de imágenes, etc.—, pero viene de décadas de avances que comparten bases algorítmicas, cambiando sobre todo la escala, los datos y la arquitectura. Estas tecnologías abren oportunidades claras, como la accesibilidad: aplicaciones capaces de describir imágenes pueden apoyar a personas con discapacidad visual y estar disponibles siempre. Sin embargo, esa disponibilidad no elimina el hecho de que muchas veces la calidad, la precisión y el beneficio social de la ayuda humana siguen siendo superiores.

Con la creación también llegan tensiones éticas y legales: entrenar modelos con enormes volúmenes de contenido en línea —incluyendo material protegido— ha encendido debates sobre propiedad intelectual, consentimiento y compensación. Muchos creadores sienten que su trabajo se usa sin permiso y que la automatización puede reemplazar tareas creativas “de rutina”. A esto se suma un ángulo menos visible: detrás de estos sistemas suele haber trabajo humano intensivo (etiquetado y depuración de datos), frecuentemente tercerizado en países donde se paga menos, con altas cargas y baja protección laboral.

Otra capa de riesgo aparece cuando la IA se vuelve extremadamente buena para “ver” y clasificar imágenes: lo que sirve para reconocer objetos y escenas también puede potenciar vigilancia y monitoreo de personas. Y en el caso de los chatbots, conviene recordar un punto incómodo: generan respuestas prediciendo secuencias de palabras, no “entendiendo” el mundo como lo hacemos nosotros. Por eso pueden sonar convincentes y aun así afirmar cosas falsas con gran seguridad, lo que los vuelve poco confiables cuando lo que importa es la exactitud factual.

En el terreno de la IA que “predice” (la que promete anticipar comportamientos o resultados), el texto cuestiona el exceso de confianza. Una predicción “correcta” no garantiza una decisión correcta, especialmente porque las decisiones cambian el contexto que se intenta predecir. En ámbitos como salud, contratar personal o justicia, la diferencia entre correlación y causa es enorme: sin pruebas rigurosas en el mundo real, muchas promesas de efectividad se sostienen más en marketing que en evidencia. Además, estos sistemas pueden “jugarse”: si un modelo premia señales superficiales (por ejemplo, en un CV), las personas terminan adaptándose para complacer al algoritmo, incluso si eso empeora la selección real.

El riesgo se agrava con el sesgo de automatización: se vende la IA como reemplazo total de la intervención humana, pero cuando falla, la responsabilidad se traslada a que “debió haber supervisión”. Y, como estos modelos dependen de los datos con los que se entrenan, suelen rendir peor cuando se aplican a poblaciones distintas a las de origen, afectando más a grupos subrepresentados. Así, en vez de corregir desigualdades históricas, pueden replicarlas o amplificarlas, alimentando la ilusión de certeza en un mundo donde muchos resultados son, por naturaleza, inciertos.

En redes sociales, la IA que filtra y decide qué contenido se ve o se oculta parece la solución obvia por el volumen masivo de publicaciones. Pero moderar no es solo “detectar palabras prohibidas”: exige contexto, intención y matices culturales. Sistemas automáticos pueden castigar discusiones que denuncian violencia o discriminación, malinterpretar expresiones resignificadas por una comunidad o fallar por traducciones imperfectas. Y como el internet cambia cada día (nuevas bromas, códigos, formatos, conflictos), estos modelos requieren reentrenamiento constante, lo que es costoso y lento. Bajo presión regulatoria, además, las plataformas tienden a “pasarse de la raya” eliminando más de lo necesario para reducir riesgos legales, con el efecto colateral de censurar contenido legítimo.

De cara al futuro, el mensaje es que la trayectoria de la IA no está escrita: todavía podemos guiarla para que priorice intereses humanos. Si estas herramientas pasan de ser “apps” a infraestructura central, el cierre de investigación por competencia puede volver los avances más exclusivos y orientados al lucro. En paralelo, muchas instituciones adoptan sistemas predictivos buscando eficiencia, pero eso no reemplaza arreglar problemas estructurales; a veces, el foco en optimización extrema impide soluciones más simples, transparentes y humanas.

La regulación será decisiva, y no necesariamente requiere inventar un “nuevo libro de reglas” desde cero: marcos existentes pueden servir si se fortalecen agencias, recursos y capacidad de fiscalización para evitar capturas regulatorias. También conviene ser realistas con el trabajo: como otras olas de automatización, es probable que la IA transforme tareas y cree nuevos roles más que “borrar” profesiones completas. Aun así, harán falta políticas para amortiguar impactos, porque la desigualdad laboral no empezó con la IA y no se resolverá solo con tecnología.

La conclusión es clara: no se trata de rechazar la inteligencia artificial, sino de usarla con sobriedad. Ver sus límites no la debilita; la vuelve más útil. Cuando distinguimos entre lo que funciona, lo que está inflado y lo que es riesgoso, podemos orientar esfuerzos hacia aplicaciones donde la IA realmente suma, y evitar implementaciones que, por apresuradas o mal diseñadas, terminan causando más daño que beneficio. En ese escenario, la IA no compite con lo humano: lo complementa

Artificial Intelligence