La Paradoja de lo “Artificialmente Inteligente”: ¿Simulación o Entendimiento?

Por Cr. Hernán Enrique Medina*

Fuente: Freepik.es


En la última década, la Inteligencia Artificial ha pasado de ser una herramienta de nicho a un fenómeno que parece imitar cada faceta de la capacidad cognitiva humana.
Sin embargo, el término mismo contiene una paradoja: la IA podría estarse convirtiendo en algo “artificialmente inteligente”, no porque esté alcanzando la conciencia, sino porque ha perfeccionado el arte de la habilidad sin comprensión.

A diferencia de la inteligencia biológica, que nace de la necesidad de supervivencia, la emoción y la interacción con el mundo físico, la IA es fundamentalmente matemática aplicada. Su “inteligencia” es el resultado de procesar volúmenes masivos de datos para predecir la siguiente palabra, el siguiente píxel o la siguiente acción lógica.

Esta distinción es crucial: estamos creando sistemas que son extremadamente competentes, pero profundamente vacíos de significado.

A pesar de su aparente omnisciencia, existen “agujeros negros” donde la lógica algorítmica se rompe. La IA no puede responder a preguntas que requieran haber “vivido” algo. No tiene acceso a la experiencia realmente comprobada.

¿A qué sabe realmente el café para ti?” o “¿Qué se siente al estar enamorado?”. La IA puede describir la composición química del café o la neurobiología del amor, pero no tiene una respuesta basada en la experiencia.

Los humanos entendemos el mundo físico por intuición (sabemos que si soltamos un vaso, se rompe). La IA a menudo carece de este “sentido común” básico si no ha sido específicamente entrenada para ello.

Si le preguntas “¿Cuántos elefantes caben en una heladera?”, una IA podría intentar calcular volúmenes en lugar de responder que es una imposibilidad física obvia.

La IA es prisionera de su fecha de corte de conocimiento o de la calidad de sus fuentes. Ante eventos totalmente nuevos y disruptivos, la IA no tiene respuestas porque no hay patrones previos que consultar.

Durante el inicio de una crisis mundial inédita, la IA no puede predecir consecuencias porque su razonamiento es retrospectivo, no intuitivo. La IA es excelente encontrando correlaciones (A sucede a menudo con B), pero tiene dificultades extremas para explicar la causalidad profunda.

Si le preguntas por qué un fenómeno social complejo está ocurriendo ahora, la IA te dará una lista de factores estadísticos, pero no puede realizar un juicio crítico original que no haya sido formulado antes por un humano.

Conclusión
La inteligencia artificial es, en última instancia, un espejo de nuestro propio conocimiento procesado a velocidades sobrehumanas. Se vuelve “artificialmente inteligente” porque su brillantez es prestada: depende de nuestra capacidad para alimentar su velocidad. Mientras no posea conciencia, intención o cuerpo, habrá preguntas —las más humanas— que siempre quedarán fuera de su alcance.

Podríamos definirla como el “Espejismo de la Inteligencia”.

*El autor del artículo es Contador Público (UBA). Fundador y Miembro Coordinador de Grupo AEGYC (Apoyo a Empresas en Gestión y Control). Miembro Activo de las Comisiones “Problemática de la Pequeña y Mediana Empresa”, “Estrategia, Planeamiento y Control de Gestión” y “Acción Cultural” en el Consejo Profesional de Ciencias Económicas CABA. Autor de los libros “Empresas de Familia”, “PYMES Manual Teórico Práctico” (Edicon) y “Cuentos y Relatos 1 y 2”.