¿Nos engañan con lo de la Inteligencia Artificial?

No sé a ti, pero a mi me resulta muy sospechosa la urgencia con la que un organismo que tarda una década en aprobar una normativa de tráfico, sea tan diligente a la hora de legislar sobre la Inteligencia Artificial. Resulta que la Unión Europea ha redactado una ley en un tiempo sin precedentes sobre este tema. Solo cuatro meses después del lanzamiento público de ChatGPT, casi sin que sepamos que es o que puede hacer, la UE ha preparado un nuevo borrador de legislación para controlar su uso. Este hito legislativo, elaborado en apenas 11 días, quiere alterar significativamente nuestra percepción sobre esta tecnología.

No sé a ti, pero a mi me resulta muy sospechoso que el mismísimo George Soros publicara hace unos días un artículo en el que habla la Inteligencia Artificial como una tecnología que podía destruir la civilización. Escribe como si la IA fuera consciente de que es más poderosa que nosotros. Como si lo supiera. Escribe textualmente que ‘me opongo casi por instinto a la IA, y estoy totalmente de acuerdo con los expertos que sostienen que hay que regularla. Pero las regulaciones tienen que ser de alcance mundial por que quien no cumpla esa normativa obtendrá una ventaja indebida’

Habla de controlar, regular y detener. No te parece sospechoso de alguien que se dedica a influir en la agenda global. No será que alguien ha perdido el control de algo que quería controlar. Que eso de que la sociedad tenga una herramienta tan potente como lo fue la imprenta, o el Internet primigenio, no es conveniente para algunos.  

Actualmente, la tecnología de inteligencia artificial que está detrás de ChatGPT no es lo que se considera Inteligencia Artificial General. De hecho, esa Inteligencia Artificial General se refiere a una IA que tiene la capacidad de entender, aprender y aplicar su conocimiento a cualquier tarea intelectual que un humano puede realizar. En esencia, tendría la habilidad de comprender completamente cualquier cosa que se le presente, y luego tomar decisiones informadas y racionales sobre esa información.

ChatGPT, y los modelos GPT en general, no son eso. En lugar de tener un entendimiento verdadero y autónomo del mundo, estos modelos son máquinas que han sido entrenadas con grandes volúmenes de texto. Han sido diseñados para predecir qué texto es probable que venga a continuación, dada una secuencia de texto de entrada.

No comprenden la información de la misma manera que los humanos. No tienen conciencia ni entendimiento contextual del mundo real. No pueden razonar lógicamente sobre la información en el mismo sentido que los humanos. Su "inteligencia" proviene de la capacidad de generar respuestas basadas en patrones que han aprendido de los datos en los que fueron entrenados.

Además, es importante tener en cuenta que estos modelos no generan información nueva. No pueden crear conocimiento que no esté presente en los datos con los que fueron entrenados. Todas las respuestas que proporcionan están basadas en la información que se les ha proporcionado durante su entrenamiento. No tienen la capacidad de adquirir nueva información o aprender de las interacciones en tiempo real.

La tecnología que hay detrás de ChatGPT es impresionante y puede parecer muy inteligente, pero no es una Inteligencia Artificial General. Es una herramienta de procesamiento de lenguaje natural que utiliza patrones aprendidos para generar respuestas basadas en la información que ha sido entrenada para conocer.

Hay científicos dedicados a la IA que dicen que no tienen la mas remota idea de como lograr imitar el funcionamiento de la conciencia y pensamiento humano. A pesar de los avances significativos en inteligencia artificial, la creación de una máquina que pueda replicar el pensamiento humano sigue siendo un gran desafío y un área de intenso debate e investigación. La conciencia y el pensamiento humanos son increíblemente complejos y aún no se comprenden completamente, incluso dentro de los campos de la neurociencia o la psicología. Algo que implica mucho más que juntar palabras. Hablamos de la capacidad de experimentar percepciones, sentimientos, pensamientos y tener una especie de autoconciencia.

Las inteligencias artificiales actuales, como las basadas en el aprendizaje profundo, son esencialmente sistemas sofisticados de reconocimiento de patrones. Estos sistemas pueden aprender a realizar tareas específicas muy bien (a veces incluso mejor que los humanos) al aprender de grandes cantidades de datos. Sin embargo, carecen de una comprensión general del mundo. No tienen la capacidad de formar una imagen contextual, ni de tener experiencias subjetivas

Escuchamos y leemos por parte de los medios, y no tan medios, incluso pensadores sociales, que las empresas empiezan a reemplazar trabajadores con ChatGPT. Son los que aseguran que esta inteligencia artificial ha revolucionado el panorama actual, con beneficios significativos pero también desafíos. 

No se cortan, sin tener datos objetivos, que su adopción ha llevado a la sustitución de trabajadores en muchas organizaciones. Suelen utilizar las palabras de Sam Altman, CEO de la empresa creadora de chatGPT, OpenAI, donde dice que su criatura no debería utilizarse para asuntos importantes. A medida que esta tecnología evoluciona, los empleados deben ser conscientes de los cambios que podrían surgir en sus responsabilidades laborales. El modelo económico para utilizar ChatGPT también está en constante evolución y podría reorganizar algunos puestos de trabajo en las empresas. 

ChatGPT, genera fascinación y temor por su impresionante y útil capacidad para desempeñar tareas como predecir recetas secretas o brindar información histórica. La experta en IA Afke Schouten sugiere que los humanos se enfoquen en desarrollar habilidades que complementen a la IA, como el pensamiento crítico, la inteligencia emocional, el análisis de los datos y el conocimiento a partir de la información.

ChatGPT puede ayudar a los humanos en varias áreas, como redacción de textos, investigación, programación, aceleración de procesos creativos, procesamiento de grandes volúmenes de datos, organización de tareas y planificación estratégica. Por eso existe la necesidad de una "alfabetización en datos", donde los individuos pueden interpretar críticamente los datos y entender cómo la IA genera resultados. Por no decir la importancia de recordar que la IA no siempre tiene razón, por lo que es crucial cuestionar los resultados.  La rápida evolución de la IA está cambiando permanentemente el mundo laboral, creando nuevas competencias y trabajos por lo que recomiendo mantenerse alerta y crítico frente a estos cambios.

Pero aunque ChatGPT está causando cierto pánico, en breve será una herramienta tan mundana como lo es Excel. Los encantados fueron los que quedaron paralizados al descubrir que una máquina aparentemente podía realizar un encargo escrito de manera competente. La indignación se desencadenó por temores de redundancia por parte de las personas cuyo empleo requiere la capacidad de escribir una prosa profesional. Y los lamentos procedían de gente seria (muchos de ellos profesores de varios niveles) cuyo trabajo diario consiste en calificar ensayos escritos hasta ahora por estudiantes.

Hasta ahí, todo muy predecible. Históricamente, sobreestimamos el impacto a corto plazo de las nuevas tecnologías, mientras que subestimamos enormemente sus implicaciones a largo plazo. Así sucedió con la prensa escrita, las películas, la radiodifusión, la televisión e Internet. Y sospecho que acabamos de entrar en el mismo juego conceptual. 

El modelo subyacente de chatGPT, o de cualquier herramienta derivada, incluidas las que ‘crean’ fotografías realistas, han sido entrenados en cientos de terabytes de texto e imágenes, probablemente extraídos de la web, por lo que se podría decir que se ha "leído" casi todo lo que se ha publicado en línea. Como resultado, es bastante hábil para imitar el lenguaje humano  o lo que sea. 

El mejor antídoto contra esta tendencia a antro-pomorfizar sistemas inteligentes es estudiar como estos modelos funcionan. Si le preguntamos ‘quién descubrió América’ en realidad lo que estamos preguntando a este cachivache es “Dada la distribución estadística de palabras en el vasto corpus público de texto ¿qué palabras son las más probables que sigan la secuencia ‘quien descubrió América? Una buena respuesta será Cristobal Colón. En realidad es pura predicción. Algo que, cierto, también se relaciona con la inteligencia humana, pero la distancia es notable. 

El avance exponencial es el que responde a que un trabajo que requería días de esfuerzo, este sistema lo resuelve en apenas unos minutos. Esto no lo convierte en inteligente sino en un buen asistente. Un buen colaborador, un gran compañero de trabajo. 

Hubo un tiempo que el ‘core’ digital era el hardware. Luego llegaron Apple, IBM y Microsoft con sus catálogos de software de oficina que se han convertido en indispensables.

Seguro que te estás preguntando, que al igual que las calculadoras acabaron con los calculistas, Excel con los contadores y la imprenta con los escribas, ¿Cuáles son los trabajos más amenazados por ChatGPT? Vamos a ver… 

1. Empleos tecnológicos: Programadores informáticos, ingenieros de software y analistas de datos pueden ser susceptibles a la IA.

2. Empleos en medios de comunicación: La IA puede potencialmente asumir roles en publicidad, creación de contenidos, redacción técnica y periodismo. Esto se debe a la capacidad de la IA para analizar e interpretar grandes cantidades de información basada en el lenguaje.

3. Empleos en el sector jurídico: Los asistentes jurídicos y auxiliares pueden verse afectados, dado que la IA puede realizar sus funciones orientadas al lenguaje.

4. Analistas de mercados: La IA es hábil analizando datos y prediciendo resultados, lo cual puede afectar a los analistas de mercado que recopilan datos y detectan tendencias.

5. Profesores: ChatGPT puede potencialmente asumir el papel de un profesor, aunque sigue habiendo cuestiones sobre la precisión y la necesidad de más entrenamiento para la IA.

6. Asesores financieros: La IA puede analizar tendencias de mercado, evaluar inversiones y hacer predicciones, lo cual podría hacer que los analistas financieros sean menos necesarios.

7. Diseñadores gráficos: La IA como DALL-E de OpenAI puede generar imágenes en segundos, lo que puede tener un impacto en la industria del diseño gráfico.

8. Agentes de atención al cliente: Con el creciente uso de chatbots para la atención al cliente, podría continuar esta tendencia, reemplazando a los agentes humanos.

Hay  muchas, como siempre ha pasado. Algunas desaparecerán, otras se transformarán y también surgirán otras nuevas. Un nuevo contrato social llamado empleo está naciendo poco a poco. 

Por ejemplo los ingenieros de prompts, una especialización muy buscada en el campo de la inteligencia artificial generativa. Su trabajo consiste en interactuar con generadores de texto basados en IA como ChatGPT, formulándoles preguntas de tal manera que estos produzcan las respuestas deseadas.

A diferencia de los ingenieros de software convencionales, que se centran en la programación, este tipo de profesionales escriben textos para detectar las características únicas de los sistemas de IA. Expertos en la materia consideran este rol crucial para desarrollar y mejorar los modelos de interacción entre humanos y robots.

Por eso es tan importante educar en su utilización y no prohibirla. Sorprende que algunas Instituciones educativas alrededor del mundo están implementando medidas para prohibir el uso de ChatGPT, en un esfuerzo por prevenir el plagio y el fraude académico. Esta acción es una respuesta a la preocupación de que los estudiantes podrían utilizar esta herramienta para actividades académicas no éticas.

El Departamento de Educación de la ciudad de Nueva York, en los Estados Unidos, fue uno de los primeros en bloquear el acceso a ChatGPT en las redes y dispositivos escolares de su distrito. Otras ciudades como Seattle y Los Ángeles han seguido el mismo camino, argumentando la protección de la honestidad académica. Fuera de Estados Unidos, en Australia, jurisdicciones como Australia Occidental, Nueva Gales del Sur, Queensland y Tasmania, también han restringido el acceso a ChatGPT en las redes de internet escolares. 

El sector universitario también se ha unido a esta tendencia. El Instituto de Estudios Políticos de París, una de las instituciones educativas más prestigiosas de Francia, ha prohibido el uso de ChatGPT y otras herramientas de IA, bajo pena de expulsión para los estudiantes que incumplan la norma. Similarmente, la Universidad RV de Bangalore, en India, ha impuesto restricciones sobre el uso de la IA.

Lo importante aquí es saber quien está invirtiendo en esto. Qué países van por delante y cuales están legislando para detener sus avances. La batalla por el copyright, la creación absoluta desde una habitación de hotel o la capacidad para solucionar una tarea que requería meses en poco más de un día, no es cosa menor.

La invención de la imprenta de Johannes Gutenberg en el siglo XV provocó una revolución en la distribución del conocimiento, pero también una enorme resistencia por parte de varios sectores de la sociedad.

Del clero, pues la imprenta amenazaba su control sobre el acceso a los textos religiosos y la interpretación de las Escrituras. La nobleza y los monarcas porque temían la difusión de ideas subversivas que pudieran amenazar su autoridad. Y también algunos intelectuales se resistieron a esta nueva tecnología, ya que temían que la disponibilidad masiva de libros pudiera llevar a una disminución de la calidad de los textos y a la difusión de ideas no probadas.

A favor estuvieron algunas universidades, filósofos, humanistas, reformadores religiosos críticos con la iglesia católica, comerciantes que vieron una oportunidad y países como Alemania, Países Bajos, Venecia o Inglaterra que puso en marcha la primera imprenta en 1476 por William Caxton.

Sé que no es lo mismo. Nada es lo mismo. Pero sirve para reflexionar sobre el papel de la tecnología, la inteligencia colectiva y el poder. De momento, lo que hay es mucho discurso del miedo. Discursos como los de Yuval Noah Harari, un transhumanista que se fotografía con la élite, con gobernantes y el propio Foro de Davos, que textualmente dicen que ‘tienen la esperanza de que los gobiernos proscriban lo antes posible el uso de la IA’ sólo busca parar el progreso, decrecerlo la economía y empobrecernos a todos. Es todo lo contrario a lo que muchos creen.

La urgencia en aprobar leyes que la regulen, todos los medios hablando de la IA como si fuera una especie de arma nuclear, los discursos de gobernantes y empresarios que debían promoverla y los mensajes terroríficos sobre lo que supone, me hacen pensar que esa normativa era urgente para ellos, no para nosotros. 

Sé que hay expertos en IA y en ética de la tecnología que argumentan que es vital regular la IA para protegernos de su uso indebido o de un incontrolado desarrollo que pueda ser peligroso en el futuro. Pero no, no se debe hacer nada. El ser humano siempre ha sido capaz de estructurar un modelo de control sobre la tecnología de un modo natural y a partir de la legalidad vigente. Cada vez que lo ha intentado ha matado la innovación. Me temo que quienes hablan tanto de regular son los mismos que quieren realmente el control.

La UE cree que la clave en esta ley es identificar los usos que puede tener la IA y su nivel de riesgo para los derechos de los ciudadanos. Pero no me lo creo. Tengo dudas de que ese enfoque sea auténtico. Tengo la impresión que se les ha ido de las manos pero no en lo que es capaz de hacer la IA, sino en lo que puede llegar a significar para el empoderamiento de la sociedad. 

No creo que les haga mucha gracia, como no les hizo en su día el nacimiento de Bitcoin, el que la gente tenga acceso a herramientas tan exponencialmente capaces de generar sociedades menos dependientes. Recuerdo como en los noventa se nos decía que en la red sólo había ‘porno y estafas’. Ahora nos dicen que los activos criptográficos sólo son para delinquir y nos impondrán monedas digitales emitidas por los bancos centrales con una legislación contra las criptos bajo el brazo. En breve, esta tecnología que permite trabajar más rápido, mejor, con acceso certero (cada vez más) a contenidos, que es capaz de hacer fotografías que no existen (una gran ventaja para fotógrafos paradójicamente), que es capaz de generar artículos, códigos o mantener conversaciones complejas, en breve se satanizará. Regular en caliente, o presionados, es un error.

Me preocupa que se le llame inteligencia artificial porque no lo es. O por lo menos no es lo que ahora tenemos. De hecho hay dos campos de reflexión y desarrollo en la IA: el científico y el tecnológico. El primero asegura que no tiene la más remota idea de como llegar a ese concepto denominado IA. El segundo asegura que es irremediable que se logre ya que todo depende de una evolución tecnológica imparable.

Me preocupa esta segunda. Considerar como absolutamente seguro que eso va a pasar. ¿Y si no pasa? Y si la conciencia inteligente no depende de los datos y velocidad de cálculo? Y si la vida como tal, la consciente, es algo mucho más complejo que química o física computacional. En todo caso yo no lo sé, pero sí sé, que iremos avanzando a una gestión de datos computacional exponencialmente muy superior al actual. Que nos costará diferenciar, o tal vez sea imposible, entre lo real y lo irreal. Pero eso no es ni malo, ni bueno. En serio. Será un nuevo desafío vital. 

Si le pusiéramos una película en HD a un individuo del siglo II en la Roma clásica, enloquecería porque pensaría que eso que se ve en la pantalla es la vida real atrapada de algún modo. Ya no te cuento una videocall o un entorno inmersivo. Nos adaptaremos. No debe preocuparnos. Crearemos conocimiento y sentidos para identificar o aceptar cosas que ahora nos suenan imposibles.

Además, la IA, o lo que consideramos aprendizaje de las máquinas, las redes neuronales, el aprendizaje profundo y la computación cuántica en el futuro, lograrán curar el cáncer, el Alzheimer, múltiples enfermedades, nos ayudará a calcular muy rápido soluciones para que un invidente pueda ver, un discapacitado pueda andar o que la vida en general sea mucho mejor debido a que el uso masivo de datos permitirá tomar decisiones políticas, económicas y científicas más rápido y mejor. 

Sólo te pido una cosa, que dejes tus comentarios aquí abajo, que aportes tu opinión o tu experiencia con estas herramientas. Que comentes a su vez las opiniones de los demás. ¿Crees que es un riesgo o un avance? ¿Crees que tu empleo está en riesgo? ¿No te parece sospechosa esa voluntad desmedida por protegernos de algo y que tienen ahora el WEF, la UE, Soros y todas las élites? ¿Crees que es bueno regular algo antes ni tan siquiera de saber cual es su dimensión? ¿Puede ser que la regulación esconda dependencia y control?

Por cierto, mucho ojo con la regulación. Esto me preocupa mucho. Es esencial garantizar que estas regulaciones no se utilicen como una justificación para aumentar la vigilancia y el control gubernamental. Es exactamente lo que va a pasar con las CBDC y me temo que lo único que hacemos es sumar herramientas que van en contra de la libertad a cambio de, como defienden, la seguridad de todos. No lo temas, casi todo lo bueno empieza con mucha gente asustada. 

Anterior
Anterior

El discurso oficial sobre la Inteligencia Artificial

Siguiente
Siguiente

¿Es sólo económica la guerra de los países contra TikTok?