Inteligencia Artificial General y el peligro de los influencers

Inteligencia Artificial General y el peligro de los influencers

Imagine un asesor financiero de un banco que ayuda a un cliente a planificar su futuro económico. El asesor comienza revisando el perfil financiero del cliente, incluyendo ingresos, gastos, y objetivos a largo plazo. Este utiliza su conocimiento de productos financieros para elaborar un plan personalizado. Además, el asesor responde a las preguntas del cliente sobre riesgos y beneficios, adaptando sus explicaciones a distintos niveles de comprensión. A lo largo del tiempo, el asesor monitoriza y ajusta el plan financiero en respuesta a cambios en el mercado y en la situación personal del cliente, demostrando habilidades de análisis y adaptación continua.

Este ejemplo cotidiano muestra cómo un humano puede integrar y aplicar conocimientos diversos de manera eficiente, una característica en humanos conocida como Inteligencia General (GI). Esta se refiere a la capacidad cognitiva global de un humano, que involucra habilidades como el razonamiento, la resolución de problemas, el pensamiento abstracto, la comprensión de ideas complejas, el aprendizaje rápido y la adaptación a nuevas situaciones.

A diferencia de las habilidades específicas, esta representa el potencial intelectual más allá de habilidades específicas para explorar y hacer sentido del entorno en varios contextos.

Tomando como analogía el ejemplo del asesor financiero, surgen tres aspectos que vale la pena aclarar:

1. Un sistema de IA intentaría realizar bien una tarea individual, y podría eventualmente superar en rapidez y eficiencia a un humano.

2. Un sistema de IA puede eventualmente realizar varias tareas simultáneamente lo que no significa que posea inteligencia general pues requiere de capacidades cognitivas.

3. Un sistema de IA generativa (GenAI) es capaz de realizar algunas tareas específicas. Sin embargo, este no posee capacidades de comprensión ni de razonamiento pues carece de cognición y metacognición como los humanos, por lo que están lejos de poseer GI.

Inteligencia Artificial General (AGI)

La búsqueda de la inteligencia general en los computadores es un área por ahora teórica denominada Inteligencia Artificial General o AGI (Artificial General Intelligence). Esta corresponde al desarrollo de sistemas de IA que posean un autocontrol autónomo, un grado razonable de autocomprensión y la capacidad de aprender nuevas habilidades. Además, un sistema que posee AGI podría resolver problemas complejos en entornos y contextos que no se le enseñaron en el momento de su creación.

Por lo anterior, tecnologías de AGI podrían resolver problemas en varios dominios, como un ser humano, sin intervención manual. En lugar de limitarse a un ámbito específico, un sistema de AGI podría auto-enseñarse y resolver problemas para los que nunca se le enseñó. De ahí que este es un enfoque teórico de una IA completa que realizaría tareas complejas con capacidades cognitivas humanas generalizadas.

Diferencias clave entre IA y AGI

Debido a las capacidades mencionadas, muchas tecnologías de IA que se utilizan actualmente no tienen nada de AGI, pues, entre otros problemas, requieren un entrenamiento significativo antes de poder realizar tareas específicas dentro del mismo dominio. Por ejemplo, los actuales grandes modelos de lenguaje (LLM) que posibilitan aplicaciones como ChatGPT, Gemini y otros, deben ser previamente entrenados sobre conjuntos de datos muy grandes en un dominio específico antes de que puedan operar de manera coherente, por ejemplo, como un chatbot médico.

Así, la principal diferencia entre la IA y la AGI reside en el nivel de autonomía y generalidad de las tareas que pueden realizar: un sistema de IA realiza tareas para las cuales este ha sido entrenado mientras que un sistema de AGI permitiría a un computador operar en una amplia gama de actividades sin necesidad de entrenamiento específico para cada una de ellas. De ahí que la creatividad, la percepción, la cognición, el aprendizaje y la memoria son esenciales para crear sistemas de IA que imiten el comportamiento humano complejo.

Por otro lado, un sistema de AGI que supere la capacidad cognitiva humana sería extremadamente relevante en muchos dominios de aplicación donde se requiera tomar decisiones independientes y desarrollar argumentos lógicos y razonar en forma autónoma. Estos sistemas podrían automatizar tareas mucho más complejas que incluso se conciban como estratégicas.

Alcanzar la AGI significaría que un sistema de IA podría actuar sobre pensamiento abstracto, razonamiento, sentido común, conocimiento de background, y transferencia de conocimiento.

Esto abriría posibilidades a muchas áreas. Por ejemplo, tecnologías de AGI podrían realizar cirugías y traer vehículos completamente autónomos a la industria, entre otras aplicaciones.

Avances, desinformación e influencers en el campo de la IA

Recientemente, ha habido avances importantes de la IA en que esta puede superar al ser humano en rapidez y eficiencia en tareas que se prestan a la automatización. Sin embargo, esta no posee capacidad de decisión propia más allá de lo que se le enseñe y de los datos con los que se entrene, o sea, no tenemos AGI.

 

Lamentablemente, las constantes intervenciones de influencers, CEOs de empresas tecnológicas reconocidas y otras personalidades que sin fundamentación, llenan los medios de predicciones sobre la AGI, se torna en un juego mediático muy peligroso y que va contra del avance verdadero de la IA.

Un ejemplo de esta desinformación son las entrevistas recientes realizadas al CEO de NVIDIA, Jensen Huang. Ante preguntas sobre el horizonte para lograr la AGI, responde que dentro de 5 años, mientras que otros empresarios e influencers como Elon Musk lo establecen a 2 años, sin fundamento ni comprensión alguna, sólo por sensacionalismo.

Recientemente, la Comisión para el Mercado Financiero (CMF) emitió un reporte en que se restringe a influencers a realizar recomendaciones financieras debido a los daños que han originado varios de ellos. Análogamente, en un futuro cercano quizás sería buena idea que algún ente independiente restrinja y castigue a influencers de tecnología por la desinformación que generan y por ser, muchos de ellos, un peligro público.

Fuente: www.biobiochile.cl