24.5 C
Chihuahua
lunes, abril 27, 2026

Qué es la ‘inteligencia irregular’ y cómo puede redefinir el debate sobre la IA

0
0

Di lo que quieras sobre si la inteligencia artificial llegará a ser tan inteligente como un humano. Ya se convirtió en una estrella de las matemáticas: el verano pasado, la IA creada por Google y OpenAI respondió correctamente a cinco de seis preguntas complejas en la Olimpiada Internacional de Matemáticas, un concurso anual para los mejores estudiantes de preparatoria del mundo.

Sin embargo, puede que el sentido común de la IA siga siendo un poco deficiente. Unos meses más tarde, un ingeniero de software de Sri Lanka llamado Anuradha Weeraman observó que los principales sistemas de IA tenían dificultades para responder a lo que básicamente era una pregunta capciosa que la mayoría de las personas considerarían ridículamente sencilla. Cuando dijo a varios chatbots que necesitaba llevar su auto a un taller de reparaciones que estaba a solo 50 metros y preguntó si debía ir andando o en coche, los bots le dijeron que fuera a pie.

La extraña forma en que la IA a veces parece un genio y a veces parece torpe es lo que investigadores, ingenieros y economistas llaman “inteligencia irregular”. Este término es usado para explicar por qué la IA avanza a toda velocidad en algunas áreas —como las matemáticas y la programación informática—, mientras que aún le cuesta avanzar en otras.

El término, muy utilizado por las personas que construyen sistemas de IA y analizan sus efectos, podría ayudar a replantear el debate sobre si estos se están volviendo tan inteligentes como los humanos, o incluso más. En lugar de eso, los investigadores sostienen que la IA es algo completamente distinto: mucho mejor que los humanos en algunas tareas y mucho peor en otras.

Comprender esas fortalezas y debilidades también puede ayudar a los economistas a entender mejor lo que la IA significa para el futuro del trabajo. Mientras que los programadores principiantes tienen motivos para preocuparse por sus empleos, por ejemplo, no está tan claro —al menos por ahora— cómo afectará la IA a otros trabajos. Sin embargo, observar dónde empieza a mejorar con rapidez la IA podría ayudar a predecir qué tipos de empleos se verán afectados por la tecnología.

“El rendimiento de estos sistemas varía, y no es fácil saber cuándo no lograrán hacer cosas que un humano sí puede hacer”, comentó Weeraman.

El término “inteligencia irregular” fue acuñado por Andrej Karpathy, uno de los investigadores fundadores de OpenAI, antiguo jefe de tecnología de autoconducción de Tesla; en las redes sociales, es uno de los comentaristas más seguidos sobre el auge de la IA.

“Algunas cosas funcionan extremadamente bien (para los estándares humanos), mientras que otras fallan de manera catastrófica (también para los estándares humanos)”, escribió en redes sociales en 2024, “y no siempre es obvio cuál es cuál”.

Esto, escribió, es diferente del cerebro humano, “donde muchos conocimientos y capacidades de resolución de problemas están altamente correlacionados y mejoran linealmente, todos juntos, desde el nacimiento hasta la edad adulta”.

Desde que OpenAI inició el auge de la IA en 2022, los ejecutivos tecnológicos han oscilado entre advertir que sus nuevas creaciones podrían tener un efecto devastador en los empleos de cuello blanco y restar importancia al impacto a largo plazo en el empleo.

Hasta ahora, fuera de la industria tecnológica, solo hay pruebas anecdóticas de que la IA se ha convertido en una devoradora de empleos. No obstante, dada la rapidez con que la tecnología está mejorando, muchos expertos sostienen que la cuestión de si la IA reemplazará a otros trabajadores de cuello blanco no es si ocurrirá, sino cuándo. Hace solo unos años, estos sistemas apenas empezaban a mostrar las habilidades de programación más rudimentarias.

“Estos sistemas han venido mostrando mejoras increíbles”, afirma Alex Imas, economista de la Escuela de Negocios Booth de la Universidad de Chicago. “Cada vez que hay un nuevo lanzamiento importante, la gente se sorprende de lo mucho que puede hacer”.

Sin embargo, la tecnología que aumenta lo que pueden hacer los trabajadores sin sustituirlos tiene muchos precedentes, y eso es lo que algunos economistas e investigadores de la IA sostienen que ocurrirá. Ya en la década de 1960, una calculadora de bolsillo podía sumar, restar y multiplicar mucho más rápido que una persona. Eso no significaba que una calculadora pudiera sustituir a un contador.

Ahora, sistemas como Claude de Anthropic y Codex de OpenAI también pueden escribir código informático mucho más rápido. Pero no son tan buenos a la hora de comprender cómo encaja cada fragmento de código en una aplicación de software más amplia. Para eso necesitan ayuda humana.

“Si un trabajo implica un montón de tareas diferentes —y casi todos son así—, algunas tareas se automatizarán y otras no”, explicó Imas. “Y si ese es el caso, el trabajador puede tener más tiempo para hacer cosas más grandes”.

El mes pasado, François Chollet, un destacado investigador de IA, publicó una nueva prueba de referencia digital llamada ARC-AGI 3. En ella se piden soluciones a cientos de acertijos parecidos a los de un juego, sin proporcionar ni una sola instrucción sobre cómo resolverlos. Todos los acertijos pueden ser resueltos por una persona promedio sin entrenamiento, pero los principales sistemas de IA no consiguen dominar ninguno de ellos, según las pruebas realizadas por Chollet y ARC Prize, el laboratorio de investigación sin fines de lucro que supervisa la prueba.

Una vez que la gente se da cuenta de que la IA es una inteligencia irregular, dicen los expertos como Chollet, comprende mejor cómo es probable que evolucione la IA en los próximos años, y qué efecto podría tener en el mercado laboral.

“Esto dependerá de qué tareas automatice, cómo y cuándo”, afirmó Imas.

Los sistemas de IA como Claude y ChatGPT de OpenAI aprenden sus habilidades identificando patrones en datos digitales, como artículos de Wikipedia, noticias, programas informáticos y otros textos extraídos de internet. Pero eso solo los lleva hasta cierto punto.

El internet solo contiene una pequeña parte del conocimiento humano. Registra lo que la gente hace en el mundo digital, pero contiene comparativamente poca información sobre lo que ocurre en el mundo físico.

Eso significa que estos sistemas pueden escribir correos electrónicos, responder preguntas, hablar con soltura sobre casi cualquier tema y generar código informático. Pero como los sistemas de IA reproducen los patrones que encuentran en los datos digitales, no son buenos planificando con antelación, generando ideas nuevas o abordando tareas que no han visto antes.

“La IA no tiene inteligencia general”, dijo Chollet. “Lo que tiene es un montón de habilidades diferentes”.

Ahora, empresas como Anthropic y OpenAI están enseñando a estos sistemas habilidades adicionales mediante una técnica llamada aprendizaje por refuerzo. Trabajando con miles de problemas matemáticos, por ejemplo, pueden aprender qué métodos conducen a la respuesta correcta y cuáles no.

Esto funciona bien en áreas como las matemáticas y la programación informática, donde las empresas de IA pueden definir con claridad el comportamiento bueno y el malo. La respuesta a un problema matemático es correcta o incorrecta. El código informático pasa una prueba de rendimiento o falla.

Sin embargo, el aprendizaje por refuerzo no funciona tan bien en áreas como la escritura creativa, la filosofía o incluso algunas ciencias, donde la distinción entre lo bueno y lo malo es más difícil de precisar.

“La codificación —que entusiasma a todo el mundo en este momento— no es representativa de todo lo que hace la IA”, afirmó Joshua Gans, economista de la Escuela de Administración Rotman de la Universidad de Toronto. “Con la codificación, es mucho más fácil utilizar un bucle de retroalimentación para averiguar qué funciona y qué no”.

(The New York Times demandó a OpenAI y Microsoft en 2023 por violación a los derechos de autor del contenido de noticias relacionadas con los sistemas de IA. Las dos empresas han negado esas acusaciones).

Para los usuarios, a menudo es difícil saber qué hace bien la IA y qué no. Y cuando la gente por fin consigue dominar los puntos fuertes y débiles de los sistemas, la tecnología cambia.

“La naturaleza irregular de la IA hace que los problemas puedan surgir de cualquier parte”, afirma Gans. “Hay lagunas, y no siempre sabemos dónde están”.

La variable clave es que la IA está mejorando rápidamente. Muchos de los puntos débiles que Karpathy y otros señalaron en 2024 y principios de 2025 ya no existen. Las empresas encontrarán otras deficiencias y también las corregirán.

“Las brechas de la tecnología se están cerrando”, dijo Imas.