Por John Hill Escobar
Una de las clases que más me impresionó durante mi paso por la Escuela de Estudios Internacionales de la UCV fue la de la Metodología con la Profesora Seny Hernández. En dicha clase, me tocó elegir un periódico cuya cobertura solo cubría Los Altos Mirandinos, para luego recolectar noticias de la región y hacer fichas de estas. Dicho seguimiento lo hice por nueve semanas y con la información resultante realicé un análisis situacional de los Altos Mirandinos. El resultado de esta actividad fue interesantísimo: pudimos ver patrones y tendencias que no estaban explícitamente mencionados en la publicación.
Al finalizar la clase quedé sumamente interesado en las posibles aplicaciones de este acercamiento en áreas como el análisis situacional, así como en labores de inteligencia.
Pasarían muchos años para rememorar esta experiencia en un contexto diferente: el contexto de la inteligencia artificial.
Inteligencia Artificial
Recientemente he leído artículos y varios comentarios escritos por nuestros colegas internacionalistas sobre la inteligencia artificial y el efecto que ella tendrá en nuestro futuro inmediato. Todos ellos traen buenos puntos a la mesa, pero tienden a enfocar el análisis en los peligros de esta tecnología usando como ejemplos externalidades propias de tecnologías convencionales. Estas consideraciones son completamente esperadas dado que la información usualmente viene de artículos de medios no especializados, o de profesionales/expertos que emiten comentarios sin la apropiada contextualización, tal como sucedió con las declaraciones de Geoffrey Hinton recientemente. Hinton inesperadamente hizo creer al público general que la inteligencia artificial fuerte o inteligencia artificial autoconsciente era un hecho.
Para tener un poco más de claridad sobre el tema, quisiera dedicar este espacio para dar una imagen más clara de lo que la inteligencia artificial es en realidad. Pienso usar la acepción amplia de inteligencia artificial para ilustrar la familia de roles asociadas a esta área de la tecnología. Asimismo, sólo estaré enfocado en los objetivos de aprendizaje, procesamiento de lenguaje natural y percepción.
La inteligencia artificial es una rama de estudio encargada en desarrollar software capaz de resolver problemas sin la necesidad de dar instrucciones pormenorizadas. En una solución convencional, el programador le dice al programa que debe hacer paso por paso, por lo que el programador debe definir de antemano todas las posibles alternativas para evitar que la aplicación falle. En inteligencia artificial, el programador define un modelo matemático de antemano y entrena el modelo proporcionando datos. El modelo estudia los datos sin necesidad de instrucciones precisas y establece los parámetros a ser implementados cuando éste reciba datos nuevos para propósitos predictivos.
Actualmente, existen dos grandes familias, las cuales han estado en desarrollo por décadas. La primera y más conocida es la familia de máquinas de aprendizaje. Esta familia usa aplicaciones matemáticas con el propósito de resolver problemas específicos. Ejemplos actuales son los modelos para detección temprana del cáncer, modelos de recomendación para compras de artículos, modelos de geolocalización en tiempo real, entre otras cosas. Esta familia no produce respuestas similares a las que esperaríamos de un ser humano. Sus respuestas generalmente vienen dadas como resultados numéricos u objetos, como en el caso de las recomendaciones. Cada vez que interactúas con Amazon o Netflix estos modelos estudian tu comportamiento y te ofrecen alternativas ajustadas a tu preferencia.
La segunda familia es la de procesamiento de lenguaje natural. El acercamiento es similar al de la primera, pero en lugar de proporcionar una métrica, la respuesta viene en la forma de un mensaje similar al que recibiríamos de una persona que esté hablando con nosotros. ChatGPT es el ejemplo más obvio entre todos ellos, así como el análisis de sentimientos, el cual puede identificar la intención del mensaje escrito por una persona. Esta familia tiene una cantidad importante de modelos, los cuales he usado personalmente, tales como BERT, RobertA y Vader.
Los modelos de procesamiento de lenguaje usan los datos de manera diferente a las máquinas de aprendizaje convencionales toda vez estas últimas requieren que los datos estén procesados y organizados en estructuras similares a las que verían en una hoja de Excel (ciertamente hay una simplificación aquí por propósitos didácticos). Los modelos de procesamiento de lenguaje necesitan información en la forma de documentos (Word, Pdf, Excel), para inmediatamente convertir cada palabra en valores probabilísticos que serán transformados para crear una respuesta similar a la de una persona real.
Cada vez que haces una pregunta a ChatGPT, por ejemplo, el modelo convierte las palabras en probabilidades usando los parámetros del modelo, y luego busca en su “corpus” o cuerpo de datos todas las palabras con la menor diferencia entre los valores del corpus en cuestión y las palabras de la pregunta hecha. Una vez estos valores han sido hallados, los mismos se organizan y convierten en palabras que será presentadas al usuario. La respuesta lucirá como una respuesta humana, pero algoritmo en realidad no entiende la pregunta. Solo buscó los valores que se asimilaban a los valores de la pregunta.
En esta segunda familia, existe una subrama denominada inteligencia artificial generativa (GenAI), la cual fue la que he explicado de entrada. Existen otras cuantas, pero no son de interés para este artículo.
Volviendo a Hinton y el Boom de la GenAI
Hinton abiertamente ha establecido que su famosa de NYT ha sido puesta fuera de contexto sin que ello haya sido hecho con mala intención por parte de esta eminencia. Otros medios inmediatamente se enfocaron en el presunto riesgo existencial de la inteligencia artificial. Sin embargo, Hinton aclaró que el mundo de Skynet no es un factible. Ciertamente, no lo es, ya que estás máquinas no comprenden el contexto de las preguntas como lo hacemos los humanos.
Ahora bien, ya nos encontramos en el punto donde enseñamos a dichos programas a preguntarse como puede mejorarse a sí mismos en tiempo real. Ciertamente, esto traerá cambios significativos al mercado de trabajo, pero no pondrá a la humanidad en un riesgo existencial al nivel de Terminator.
Seny y Mi Proyecto de los Altos Mirandinos
En este momento se estarán preguntando la relación entre ese proyecto y la inteligencia artificial. La verdad es que el acercamiento humano de Seny y el de la máquina es igual. Analicemos esto paso a paso:
- Recolección de datos. En mi proyecto con Seny, yo necesité comprar periódicos diariamente durante nueve semanas. En una aplicación de inteligencia artificial no tendrías que ir al quiosco, pero tendrías que usar una interfaz de programas de aplicación (API). La ventaja de usar APIs sobre la compra del periódico es que con sólo unas pocas líneas de código y la clave API apropiada puedes extraer miles o millones de veces el equivalente a la cantidad de periódicos que compré durante ese ejercicio (7*9=63).
Para ilustrarlo fácilmente, una publicación como la que analicé traía en promedio quinientas noticias por edición, es decir, tuve que analizar alrededor de treinta y un mil quinientas noticias (7*9*500) en el transcurso de nueve semanas. Por otro lado, con un API de $20 puedo quintuplicar la cantidad esa cantidad de noticias y recolectarlas en tan sólo unas pocas horas. Imagínense la cantidad de noticias e información que podemos colectar con un millón de dólares.
- Análisis de datos. En el proyecto de los Altos Mirandinos, Seny nos pidió buscar las variables principales y las variables secundarias de cada noticia bajo evaluación. Posteriormente, debíamos tratar de interconectar todas las variables y definir la prioridad de ellas. Esta es la parte que encontré fascinante, puesto que yo no tenía una hipótesis, por lo que todo el análisis fue inductivo. El resultado final se sintió como magia. Narrativas sobre sucesos de la región comenzaron a emerger, e inclusive fue sencillo ubicar a los líderes informales de la comunidad.
La versión de inteligencia artificial no dista mucho de lo que hice en esa asignación. En primer lugar, se establecen modelos, posiblemente creados a partir de redes neuronales, y se les deja analizar los datos para establecer, a través de probabilidades, las distancias y nodos temáticos dentro de la misma. La principal diferencia es que mientras el ejercicio de Seny nos limitaba a cierto número de palabras (variables), debido a la naturaleza manual del trabajo, un algoritmo de inteligencia artificial realizaría esta labor palabra por palabra. De haber sido posible usar modelos en la asignación de Seny, habría tenido que interconectar quince millones setecientos cincuenta mil palabras (7*9*500*500), asumiendo que el artículo promedio tenía quinientas palabras. Esta cifra sería absurda si tuviésemos que interconectar manualmente.
Sin embargo, comparando la situación anterior con la información del API de $20, estoy en la capacidad de hacer ese análisis en una o dos horas con alrededor de sesenta y cinco millones de palabras.
Por cierto, el análisis de GPT-4 incluyó cuatrocientos mil millones de palabras, es decir, 40.000.000.000. Este nivel será cuadriplicado en cuestión de meses por OpenAI o alguno de sus competidores.
- Recalibración (Fine Tuning). En el proyecto de Seny las recalibraciones eran iterativas y sucedían cuando una nueva variable parecía contradecir las variables del nodo establecido. En el entorno de inteligencia artificial, las recalibraciones suceden bajo dos perspectivas. La primera perspectiva consiste en optimizar parámetros bajo ciertas métricas, y posiblemente sólo seleccionar aquellas redes que provean mejores resultados. La segunda perspectiva consistiría en usar “ingeniería de instrucciones” (prompt engineering) para orientar el tipo de información que el modelo debe usar.
- Aplicación de los parámetros a nuevos puntos de data. Esta es la sección en la que la inteligencia artificial difiere, toda vez los parámetros resultantes pueden ser implementados en otros contextos, o mejor aún, puede ser combinados con otros parámetros de otros modelos para incorporar nuevos elementos predictivos. Asimismo, por razones de seguridad, la data usada para entrenar un modelo puede ser aislada y aún así seguir siendo utilizada sin perder propiedades predictivas. Eso sería una labor excesivamente intensiva y difícil de llevar a cabo si tuviésemos que hacerlo manualmente.
Finalmente, el Caso de Uso
Cuando se conoce el cómo la inteligencia artificial funciona, uno puede ver con mucha mayor claridad el tipo de aplicaciones que está en capacidad de desarrollar. En este artículo quiero ejemplificar sólo un caso, pero las posibilidades son muy amplias, especialmente en el ámbito de la empresa privada.
Ahora bien, voy a limitar mi ejemplo al que podría hacer la Oficina de Ciencia de Data de una cancillería ficticia y con fondos suficientes para poder implementar este tipo de análisis sin limitaciones presupuestarias importantes. Mi ejemplo no es otra cosa que una aplicación ampliada de la investigación que hice en la clase de Seny Hernández. Seny, por favor no te molestes conmigo por haberte mencionado tantas veces en tan pocas páginas.
Caso de Uso: Un Tratado Comercial Optimizado
Asumamos que Juan D, un trabajador de la Oficina de Ciencia de Data de la Cancillería de Inartlandia, se le asigna la tarea de delimitar una actividad económica especifica para proponer un tratado comercial con un aliado estratégico.
Cuando se le describía la importancia de dicha tarea, se le informó que la disponibilidad presupuestaria de los ministerios de comercio, desarrollo y tecnología era bastante baja, por lo que no había espacios para ensayo y error. El canciller, por su parte, comunicó a Juan D que tendría a su alcance documentación confidencial de la propia cancillería, equivalente a más de ciento veinte mil páginas. No obstante, era imperativo que estos documentos nunca sean revelados o mezclados con las otras fuentes utilizadas para el análisis.
Finalmente, todos los ministros involucrados en el pedido hicieron explícito que originalmente esta asignación había sido concebida para ser ejecutada de manera estándar pero el costo de la implementación en horas hombre era prohibitivo. Por esta razón, se prefirió acudir a la Oficina de Ciencia de Data. Al final del día, es mucho menos costoso pagar APIs que contratar cientos de personas.
La ejecución de Juan D involucraría interacciones entre personas, pero todas ellas enfocadas a mejorar el modelo el cual necesitar ser implementado con un grupo pequeño de profesionales en analíticos de data. Estos serían los pasos por seguir:
- Recolección de datos. La recolección de datos se haría en varias fases. La primera, utilizaría técnicas convencionales de análisis de datos y maquinas de aprendizaje. La idea seria utilizar y combinar data extraída de los repositorios oficiales como los del Banco Mundial, institutos internacionales, estadísticas económicas de los países objetivo, así como data del mercado interno. El producto final sería un análisis con una lista de sectores potenciales, que servirían para la fase de análisis de datos. Esta lista sería discutida con los expertos de los ministerios para identificar potenciales vacíos y validar los sectores resaltantes de la investigación inicial.
En segundo lugar, Juan D recolectaría data en la forma de archivos Word, Pdf y documentos web con estudios, artículos de prensa, entrevistas de radio y televisión, así como publicaciones universitarias relativas a los sectores de la lista inicial. La data en formato de texto sería depurada de caracteres innecesarios, mientras la data en otros formatos sería convertida a texto para procesamiento.
La información de la cancillería sería encriptada y colocada aparte para el modelo. Esta data no será combinada con el resto de la data, pero el procesamiento podría serlo.
Toda la data sería convertida en valores numéricos para ser inyectada en el modelo. Esta nueva versión de la data se guardará en bases de datos especiales para GenAI. Esta fase es la que lleva más tiempo de ejecución.
- Análisis de datos. Juan D enfoca una parte importante del proyecto en hacer una secuencia de prompts o instrucciones especialmente diseñadas para usar toda la data y proveer respuestas específicas para la petición de los ministros, así como permitir que ellos puedan comunicarse o “hablar” con el modelo y tener respuestas en tiempo real. Al final del día, estas personas tienen una perspectiva estratégica e información que el mismo Juan no tiene. El modelo estaría diseñado para encontrar relaciones que no son evidentes a simple vista y que sólo pueden ser comprendidas al analizar cantidades masivas de datos simultáneamente.
- Recalibración (Fine Tuning). Juan D también decide combinar múltiples modelos para mejorar la robustez de las respuestas del modelo. Este modelo producirá respuestas basadas en el análisis que el modelo realizó en forma de reportes con textos y gráficos. Las repuestas se adaptarían a lo que específicamente busca la persona que interactúa con éste. El modelo tendría una “opinión” sobre el sector estratégico, pero podrá evaluar cambios basados en métricas adicionales incluidas por el usuario final.
- Aplicación de los parámetros a nuevos puntos de data. En esta fase, Juan D y su equipo crearían una interfaz que permita a los ministros y su personal interactuar con el modelo haciéndole preguntas de viva voz y por escrito. Asimismo, la aplicación produciría documentación con gráficos y demás para posteriores conversaciones y toma decisión.
Asumiendo alineación de intereses entre los ministerios involucrados. Esta perspectiva optimizada concentrará esfuerzos en oportunidades de alto beneficio. En el contexto del ejercicio y el nivel de las decisiones tomadas, una serie de iniciativas multilaterales se llevarían a cabo para impulsar las sinergias entre los países objetivo e Inartlandia. Estos esfuerzos estarían exclusivamente enfocados en el sector recomendado por el modelo y las interacciones entre él y los tomadores de decisiones. Este acercamiento produciría a muy poco costo iniciativas que serían traducidas en empleos para los ciudadanos de Inartlandia. Es importante recalcar que el modelo sólo procesó data, pero a final de cuentas, fueron humanos quienes idearon, diseñaron y llevaron al usuario la implementación.
Para finalizar, imagino que algunos esperaban alguna nota sobre seguridad de datos, gobierno de datos, y regulaciones de datos, lo cual pienso hacer en el futuro. Sin embargo, creo que es mucho más importante para mis colegas comprender en mayor detalle la inteligencia artificial y sus posibles aplicaciones en un estudio de casos. Espero que de este esta explicación salgan muchas ideas.
Quisiera cerrar esta pequeña reflexión con un comentario de Enrique Dans del Instituto de Empresas de España: “Las tecnologías no pueden ser des inventadas si existe un beneficio resultado de su uso, ellas sencillamente serán utilizadas. Tratar de evitar su uso es fútil. Nosotros podemos aspirar a regularlas, pero para hacerlo, necesitamos en primer lugar entenderlas de manera holística, con todas sus posibilidades y riesgos”. Veamos también las posibilidades.
Internacionalista especializado en Ciencia de Datos, Business Intelligence, Inteligencia Artificial, así como Banca y Finanzas. Actualmente, John es Director Asistente y Científico de Data en la División de Tecnologías para Bancos en Moody’s Analytics. Asimismo, John obtuvo una Maestría en Administración de Empresas con concentración en Finanzas en la Escuela de Negocios William E. Simon de la Universidad de Rochester (2013) y Licenciado en Estudios Internacionales graduado de la Universidad Central de Venezuela (2002).