1. Introducción
La discusión sobre el uso y la aplicación de la inteligencia artificial (IA) en diferentes ámbitos ha ido en aumento. Algunas de estas discusiones han mostrado incertidumbre y dudas al respecto, por lo que es necesario aclarar la fiabilidad y la calidad de la información que proporciona y la falta de discernimiento entre información verdadera, falsa o errónea.
En las últimas décadas, el desarrollo de la IA ha buscado la creación de programas capaces de resolver problemas de manera más rápida, procesar el lenguaje natural y emular algunas acciones humanas. Sin embargo, la capacidad de las computadoras y de sus procesadores era bastante limitada, lo que derivaba en resultados imprecisos y deficientes. Actualmente, su alcance abarca diversos campos, como el financiero, alimenticio, salud, entretenimiento y muchos otros.
Recientemente, la apertura en el ámbito de la IA se destacó con el lanzamiento del ChatGPT (Generative Pre-trained Transformer). Algunas de las áreas en las que se ha aprovechado han sido las bibliotecas, la atención médica, la atención al cliente, las ventas, la generación de contenidos, entre otras más. Con ello se ha logrado una mayor personalización, adaptación y respuesta a las necesidades de los usuarios. Así mismo, ha existido una mejora continua en términos de precisión y eficacia en la comprensión y generación de resultados basados en el procesamiento del lenguaje natural (PLN).
Un aspecto que no se debe pasar por alto al abordar temas relacionados con la tecnología es su dimensión ética. En lo referente a las bibliotecas y los estudios de la información se deben advertir preocupaciones sobre la privacidad, el uso y el almacenamiento de los datos de los usuarios. Si bien es cierto ya se está llevando a cabo con éxito, esto representa desafíos y problemas por enfrentar y, como toda tecnología nueva, aún no se ha entendido bien y sus alcances son desconocidos en un amplio sentido.
Es importante destacar que la introducción de una tecnología no puede reemplazar la experiencia humana en la evaluación y gestión de la información. Los actores involucrados en estas esferas profesionales tienen conocimientos y experiencia especializada en la selección, evaluación y gestión de la información en un amplio contexto, por ende, será difícil replicar estas labores con IA sin una supervisión, programación y entrenamiento previo de las herramientas.
Lo anterior implica que, más allá de la discusión teórica, se deben explorar los caminos en los que la IA puede actuar. En ese sentido, en este trabajo se revisan fuentes enfocadas en la IA y el entorno bibliotecario, con el fin de vislumbrar un panorama sobre las posibilidades de su aplicación. El propósito de estas propuestas, bajo un carácter de inclusión y continuidad, es buscar que su aplicación ayude a los profesionales en esta materia. Los resultados, por supuesto, no sólo brindan un panorama de comprensión más amplio y la manera en cómo esta tecnología puede aprovecharse en favor de la profesión, sino también destacan las habilidades que debe adquirir el profesional de la información para enfrentar los retos.
2. Historia de la inteligencia artificial
La historia que envuelve el desarrollo de la inteligencia artificial (IA) comprende una compleja red de eventos. No solo por la presencia de personajes emblemáticos que le dejaron una contribución importante, sino también porque se vio enriquecida por algunos de los sucesos que fueron esenciales y determinantes. En este breve recorrido se abordarán acontecimientos a partir de la segunda mitad del siglo XX, si bien existen alusiones y referencias anteriores a este periodo, las cuales no se mencionarán porque el enfoque será el acercamiento a una historia moderna de la IA.
Por una parte, una de las figuras que sentó las bases de la IA es Alan Turing. Sus contribuciones a la computación teórica y la criptografía fueron fundamentales en el desarrollo de la disciplina en su primera etapa. Además de ser pionero en el avance de la IA y la robótica, Turing trabajó en el desciframiento de los mensajes alemanes durante la Segunda Guerra Mundial, tarea que lo llevó a construir la Máquina Universal de Turing, primera computadora electrónica programable.
En el artículo «Computing Machinery and Intelligence», Turing (1950) planteó la siguiente pregunta: ¿Pueden las máquinas pensar? Para responderla, argumentó sobre la posibilidad de que una máquina pudiera ser programada para imitar la inteligencia humana. En adición, Turing formuló lo que se conocería como la prueba de Turing, este experimento evalúa la capacidad de una máquina para demostrar un comportamiento inteligente indistinguible al de un ser humano.
La prueba determina si un evaluador puede distinguir, a través de la simulación de una conversación, si está hablando con una máquina o con una persona. En este escenario, la máquina y la persona se encuentran ocultos a la vista del observador, quien solamente recibe los mensajes de la conversación de forma escrita para emitir su juicio. Si la máquina es capaz de convencer al evaluador durante el periodo de la prueba, se considera que ha superado la prueba de Turing. Esto quiere decir que la máquina puede imitar exitosamente el comportamiento humano a través del lenguaje y puede afirmarse que posee un tipo de inteligencia. A pesar de la influencia significativa de la prueba, no está exenta de críticas. Algunos afirman que la máquina podría simplemente imitar respuestas sin que ello signifique que tiene una comprensión profunda de ellas.
Por otra parte, el primer trabajo reconocido generalmente como parte de la IA lo llevaron a cabo Warren McCulloch y Walter Pitts en 1943 (Como se cita en Russell y Norvig, 2010). Se basó primordialmente en tres fuentes: el conocimiento de la fisiología básica y la función de las neuronas; la lógica proposicional de Russell y Whitehead; y la teoría de la computación de Turing. La propuesta de ambos fue un modelo de neuronas artificiales en el que cada una de ellas estaba encendida o apagada. El cambio de un estado a otro se produce como una respuesta a la estimulación de un número de neuronas vecinas. El estado de las neuronas se concebía como «fácticamente equivalente a una proposición que proponía su estímulo adecuado» (p. 16).
Durante 1956, en el Dartmouth College en Hanover, New Hampshire, se realizó la conocida Conferencia de Dartmouth. La reunión fue organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, con la finalidad de reunir a un grupo de expertos para discutir el futuro de la computación. Entre los asistentes a la conferencia se encontraban Allen Newell, Herbert Simon y Arthur Samuel; a continuación, se explica el propósito de dicha actividad:
We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer (Proponemos que en 2 meses, con 10 personas se lleve a cabo un estudio sobre inteligencia artificial , durante el verano de 1956 en el Dartmouth College en Hanover, New Hampshire. El estudio debe proceder sobre la base de la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrita de forma tan precisa que una máquina pueda simularlo. Se intentará encontrar la forma en cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan algunos tipos de problemas que actualmente están reservados para los humanos y se mejoren a sí mismas. Creemos que se puede lograr un avance significativo en uno o más de estos problemas, si un grupo cuidadosamente seleccionado de científicos trabaja en conjunto durante un verano). (Russell y Norvig, 2010, p. 17)
La Conferencia de Dartmouth es considerada como el punto de partida de la IA en algunas historias, el objetivo era abordar las complejidades y los desafíos de la creación de una inteligencia artificial. Durante esos días se discutió sobre una variedad de temas relacionados con el lenguaje natural, la percepción, el aprendizaje automático, los algoritmos de búsqueda y se utilizó por primera vez el término inteligencia artificial, que se definió como «la simulación de procesos de inteligencia humana realizada por máquinas, especialmente por sistemas informáticos». Esta conferencia fue un hito en el desarrollo de la IA, porque estableció los precedentes para las siguientes décadas.
A lo largo de los años siguientes se elaboraron diferentes sistemas y programas que en su conjunto fueron añadiendo avances en el campo en diferentes áreas. En esa misma década, Allen Newell y Herbert Simon (1957) crearon el programa General Problem Solver para resolver problemas de lógica y matemáticas. El programa fue pensado para emular la función cognitiva de resolución de problemas empleando estrategias que iban desde el análisis de medios y el almacenamiento, hasta un banco de datos de los conocimientos procedimentales, como reglas y algoritmos. Estaba orientado a la toma de decisiones a partir de su interacción con un conjunto de tareas.
En 1958, John McCarthy creó el lenguaje de programación LISP (LISt Processing), uno de los más populares en la IA. Con esto demostró que era posible construir un lenguaje completo de Turing con algunas funciones hechas con notaciones y operadores simples. Publicó el diseño del lenguaje en abril de 1960 en el artículo «Recursive Functions of Symbolic Expressions and Their Computation by Machine, Part I».
En enero de 1966 se publicó ELIZA - A Computer Program For the Study of Natural Language Communication Between Man And Machine, por Joseph Weizenbaum, un informático y profesor del MIT. ELIZA es un programa que simula una conversación entre un terapeuta y su paciente, se considera el primer programa de chatbot. Este programa de procesamiento de lenguaje natural (PLN) utiliza patrones de lenguaje predefinidos para analizar respuestas de usuarios y generar respuestas que simulan una conversación real. Su creación fue significativa, porque no sólo abrió nuevas posibilidades para el procesamiento del lenguaje, sino también inició la interacción entre persona y máquina.
Weizenbaum reconoció que la capacidad de las máquinas para entender y responder el lenguaje transformaría la forma en que se interactúa con la tecnología. Para la década de los sesenta, ELIZA fue una herramienta revolucionaria para la comunicación, esto permitió entrever los límites que tenía la IA en esos momentos. En la actualidad, la IA conversacional se utiliza en diferentes aplicaciones como chatbots de atención al cliente y asistentes virtuales.
En la década de los setenta, Richard Greenblatt puso en marcha el programa MacHack en el Massachusetts Institute of Technology (MIT). Este programa era capaz de jugar una partida de ajedrez de manera rudimentaria. Este desarrollo incorporó una versión inicial de aprendizaje automático. El programa no aprendía de instrucciones o reglas preestablecidas, sino que fue diseñado para aprender de sus propias experiencias, lo cual permitía adaptarse al juego.
Lo anterior fue significativo, porque comprobó la capacidad de las máquinas para aprender y mejorar su rendimiento a través de la experiencia. Esto fue un hito importante en el desarrollo de la IA, ya que reveló que las máquinas podrían ir un poco más allá de ejecutar simplemente un conjunto de instrucciones, permitiendo al programa tomar decisiones basadas en su información disponible. Otra de las ventajas que tuvo MacHack fue un costo reducido; en esa época los desarrollos eran sumamente costosos y escasos, por lo que se demostró que era posible crear un programa para simular el aprendizaje, a pequeña escala y asequible en costo.
Posteriormente, James Lighthill, un matemático británico, publicó en 1973 un informe titulado «Artificial Intelligence: A General Survey», en donde cuestionó la capacidad de la IA para realizar tareas complejas y la falta de progreso en el campo. En el informe argumentó que el enfoque empleado en la simulación de la inteligencia humana no estaba produciendo los resultados esperados; en ese sentido, los esfuerzos deberían centrarse en la resolución de problemas específicos en lugar de la creación de una IA general.
A pesar de este punto de vista sobre el curso de la IA, el informe impulsó un aumento en la investigación del procesamiento del lenguaje natural y la robótica, enfocados en resolver problemas específicos. Los sistemas expertos que se diseñaron en la siguiente década fueron los primeros ejemplos de aplicaciones prácticas de la IA. Se debe explicar que un sistema experto es un programa informático diseñado para imitar la capacidad de razonamiento y la toma de decisiones de una persona experta en un campo de conocimiento específico. Aunque estos sistemas se utilizan en campos como la medicina y la ingeniería, algunos críticos aseguran que, al seguir reglas lógicas y conocimiento predefinido, pueden carecer de la flexibilidad necesaria para abordar situaciones imprevistas.
El sistema experto está compuesto básicamente de una base de conocimientos (información y reglas); un motor de inferencia (medio de aplicación de las reglas e información para generar las recomendaciones); una interfaz del usuario y el mecanismo para la adquisición del conocimiento (medio de actualización de la base de conocimientos, método de aprendizaje automático). Este tipo de sistemas se aplica actualmente en medicina, ingeniería, finanzas, control de procesos, entre otras áreas.
La constitución del sistema HARPY (1976) representa un ejemplo en la comprensión y la generación del lenguaje natural. Este fue originado en el Centro de Investigación de Inteligencia Artificial de la Universidad de Carnegie Mellon y se implementó en investigaciones dentro el campo de la lingüística computacional durante la década de los setenta. Su objetivo fue el análisis de la estructura sintáctica y semántica del lenguaje natural a fin de construir un sistema basado en las reglas de la gramática para el análisis del lenguaje. De esta forma, el sistema fue uno de los primeros en emplear técnicas de aprendizaje automático, reconocimiento de patrones y adaptación a los cambios en el contexto del idioma.
Otro de los acontecimientos en esta historia lo marcó el filósofo John Searle, quien contribuyó de forma relevante a la crítica de la prueba de Turing. Searle sostuvo que el hecho de que una máquina imite el comportamiento humano no significa que tenga una verdadera inteligencia. En su artículo titulado «Minds, Brains, and Programs» (1980) presentó el argumento de lo que podría llamarse «la habitación china» (p. 417), en la cual, una máquina que procesa escritura china no tiene una comprensión real del significado de los símbolos procesados.
En esta prueba él mismo se encuentra aislado dentro de una habitación con una gran cantidad de texto escrito en chino. Sin conocimiento del idioma, pero provisto de un conjunto de reglas a seguir para la interpretación del chino, él podría responder preguntas aparentemente inteligente. A pesar de esto, él no tiene una comprensión real del idioma, de la misma forma que una máquina que procesa información mediante reglas simbólicas no podría tener una comprensión real del significado de los símbolos que procesa. El procesamiento de la información simbólica en la IA es una de las críticas más amplias en la discusión sobre la necesidad misma de la comprensión y el significado que tiene la IA al procesar información.
Así, Searle estableció en el artículo una diferencia entre una inteligencia artificial fuerte y una débil:
What psychological and philosophical significance should we attach to recent efforts at computer simulations of human cognitive capacities? In answering this question, I find it useful to distinguish what I will call "strong" AI from "weak" or "cautious" AI. According to weak AI, the principal value of the computer in the study of the mind is that it gives us a very powerful tool. For example, it enables us to formulate and test hypotheses in a more rigorous and precise fashion. But according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states. In strong AI, because the programmed computer has cognitive states, the programs are not mere tools that enable us to test psychological explanations; rather, the programs are themselves the explanations (¿Qué significado psicológico y filosófico deberíamos atribuir a los esfuerzos recientes en simulaciones por computadora de las capacidades cognitivas humanas? Al responder esta pregunta, encuentro útil distinguir lo que llamaré IA «fuerte» de la IA «débil» o «cautelosa». Según la IA débil, el principal valor de la computadora en el estudio de la mente es que nos proporciona una herramienta muy poderosa. Por ejemplo, nos permite formular y probar hipótesis de manera más rigurosa y precisa. Pero según la IA fuerte, la computadora no es simplemente una herramienta en el estudio de la mente; más bien, la computadora adecuadamente programada realmente es una mente, en el sentido de que las computadoras con los programas correctos pueden ser, literalmente, que entienden y tienen otros estados cognitivos. En la IA fuerte, debido a que la computadora programada tiene estados cognitivos, los programas no son simples herramientas que nos permiten probar explicaciones psicológicas; más bien, los programas son ellos mismos las explicaciones). (Searle, 1980, p. 417)
Searle presenta una crítica profunda a la IA fuerte, arguyendo que, aunque la IA débil se enfoca en la resolución de problemas específicos, la IA fuerte busca replicar la inteligencia humana, y plantea cuestiones sobre si las computadoras pueden realmente entender y tener estados cognitivos. Este tipo de IA se enfoca en la automatización de tareas específicas y en la mejora de la eficiencia y la precisión en la realización de dichas tareas. La IA débil se basa en algoritmos y modelos matemáticos específicos, diseñados para resolver problemas concretos, tales como el reconocimiento de voz, la traducción automática, el diagnóstico médico o la detección de fraudes financieros. Estos sistemas están diseñados para llevar a cabo una tarea específica de manera autónoma y no tienen una conciencia o capacidad para el pensamiento abstracto o creativo.
La IA fuerte, programada apropiadamente, se convierte en una mente, en el sentido de que se puede decir literalmente que las computadoras que reciben los programas correctos entienden y tienen otros estados cognitivos. La IA fuerte busca replicar la inteligencia humana a través de sistemas que tienen como objetivo crear una entidad capaz de realizar cualquier tarea intelectual que un ser humano pueda realizar. Esto incluye habilidades, como la comprensión del lenguaje natural, el aprendizaje, la creatividad y la toma de decisiones basada en juicios éticos y morales.
A finales de la década de los setenta, se escribió el programa XCON (acrónimo de eXpert CONfigurer), pionero en la aplicación de la IA en la industria manufacturera, diseñado por la Universidad Carnegie Mellon y la compañía Digital Equipment Corporation (DEC) para resolver problemas complejos y tomar decisiones en la fábrica de computadoras DEC, cuando la producción presentaba algún problema. Este sistema empleó el aprendizaje automático para analizar datos en tiempo real, lo cual permitió obtener respuestas oportunas, inclusive adaptarse a los cambios en los procesos de producción.
Durante esta década existieron muchos desarrollos que contribuyeron de forma significativa al avance de la IA. Mencionar cada uno de ellos sería bastante extenso y algunos de ellos quedarían fuera de la lista. Las implementaciones de algunos sistemas, aunque estaban lejos de lograr la complejidad y los resultados actuales, demostraban el uso y la eficacia de los sistemas. Algunos de los ámbitos en los que se implementaron estos avances fueron el reconocimiento de caracteres manuscritos, las predicciones de los mercados financieros, el procesamiento del lenguaje natural y la robótica autónoma, además de otros.
Para mencionar algunos ejemplos se tiene, por una parte, ViaVoice y Deep Blue, ambos de IBM. La primera se convirtió en una de las aplicaciones comerciales iniciales de reconocimiento de voz más populares durante la década de los noventa y ha sido empleada en una amplia gama de actividades, desde el control de dispositivos domésticos hasta la asistencia en la atención médica. La segunda fue la máquina de jugar ajedrez que logró su popularidad gracias a su histórica victoria sobre el campeón mundial Garry Kasparov en 1997.
ViaVoice utilizaba una combinación de algoritmos de procesamiento de señales y técnicas de aprendizaje automático para convertir el habla humana en texto. El sistema permitía a los usuarios dictar texto, navegar por la web, enviar correos electrónicos y realizar otras tareas utilizando solo comandos de voz. La contribución de este sistema al desarrollo de la IA es significativa, porque evidenció que el reconocimiento de voz podía ser útil en contextos cotidianos y para el público en general. Además, estableció un estándar para la precisión y eficacia en el reconocimiento de voz y sentó las bases de aplicaciones posteriores.
En el caso de Deep Blue, la cual se convirtió también en hito importante en la historia de la IA, está compuesto por un conjunto de procesadores optimizados para evaluar posibles movimientos y estrategias. Si bien la primera versión fue presentada en 1985, a lo largo de los años fue actualizando sus algoritmos y agregando más procesadores, esto derivó en que, en 1997, se convirtiera en la primera máquina en vencer al campeón mundial de ajedrez en una partida oficial.
La victoria de Deep Blue sobre Kasparov fue un hecho trascendental para la IA, pues confirmó el poder de las computadoras en la toma de decisiones complejas. La máquina fue capaz de procesar más de 200 millones de posiciones de ajedrez por segundo y evaluar posibles movimientos en tiempo real, lo que superó la capacidad de un jugador humano. La contribución de Deep Blue también fue significativa en el campo de la computación y la optimización de equipos y programas informáticos. Los algoritmos y técnicas utilizados se han aplicado a otros campos, como el análisis de datos y la optimización de sistemas complejos.
Por otra parte, en el campo de la robótica se desarrolló el vehículo no tripulado llamado Nomad Rover, por parte de la Carnegie Mellon University, que en 1997 recorrió 138 millas a través del desierto de Atacama controlado a distancia. La investigación fue financiada por la NASA para probar tecnología que posibilitara experimentos geológicos remotos (Cabrol et al., 1997; Rollins et al., 1997).
En el campo de la robótica hay dos ejemplos por mencionar. Primero, el robot Asimo, desarrollado por la empresa Honda desde la década de los ochenta, ahora es capaz de reconocer la voz, los rostros y de tener autonomía. Segundo, la famosa robot Sophia, creada por la compañía Hanson Robotics. Su desarrollo integró redes neuronales, sistemas expertos, PLN y una arquitectura cognitiva, entre otro tipo de programas (Hanson Robotics, 2023).
Durante este siglo, la IA ha abordado muchos campos, incluyendo el análisis de datos, la automatización de procesos, el marketing, la publicidad, la seguridad, la prevención de fraudes financieros y la conducción autónoma. Existen avances significativos en la aplicación y comercialización de productos y servicios con IA, sobre todo, en el aprendizaje automático para lograr modelos y algoritmos capaces de analizar grandes cantidades de datos y así identificar patrones y tendencias de acuerdo con los campos en donde se aplique.
Mencionar simplemente algunos sería demasiado extenso, pero las aplicaciones vistas a lo largo de este siglo incluyen chatbots y asistentes virtuales, que emplean técnicas de PLN para interactuar con los usuarios, como los asistentes Alexa, Siri y Google. Así mismo, la IA se ha aprovechado en el diseño de vehículos autónomos que aplican el aprendizaje automático para identificar obstáculos, predecir el movimiento de otros vehículos y tomar decisiones en tiempo real. Además, se ha utilizado en la medicina, el análisis financiero, los sistemas de reconocimiento de voz, la robótica, el transporte, la atención al cliente, el entretenimiento, la música, el arte, la aviación, etcétera.
Se debe recalcar el que pareciera ser el acontecimiento de la segunda década del siglo XXI y, aunque ya había muchos adelantos en el mercado que incorporaban IA en sus sitios o productos, el lanzamiento de la serie GPT (Generative Pre-trained Transformer) fue el parteaguas en el acceso a un programa de IA abierto al uso del público. El prefijo chat se refiere a su optimización para responder preguntas, mantener una conversación a manera de chat y proporcionar información según las preguntas de los usuarios. Las tareas que puede completar van desde la traducción de textos y la generación de código, hasta la respuesta a preguntas de cualquier tipo o ámbito.
OpenAI lanzó el modelo de texto generativo GPT-2 en 2019, el cual tiene la capacidad de producir un texto coherente y contextualmente relevante. Posteriormente, el ChatGPT-3 se lanzó en junio de 2020, siendo el modelo más grande hasta la fecha, con 175 000 millones de parámetros. En marzo de 2023 se lanzó GPT-4, cuyo acceso con costo permite acceder a esta última versión:
a large-scale, multimodal model which can accept image and text inputs and produce text outputs. While less capable than humans in many real-world scenarios, GPT-4 exhibits human-level performance on various professional and academic benchmarks, including passing a simulated bar exam with a score around the top 10% of test takers (a gran escala, un modelo multimodal, el cual puede recibir imágenes y texto, y producir resultados de texto. Aunque menos capaz que los humanos en muchos escenarios reales del mundo, GPT-4 muestra un rendimiento a nivel humano bajo diversos estándares profesionales y académicos, incluyendo aprobar un examen de simulación para abogados con una puntuación aproximada de más del 10 % que los participantes en la prueba). (GPT-4 Technical Report, 2023)
Este es el modelo más avanzado de esta serie de chats que implementan IA. Más allá de los adelantos y las aplicaciones que existen actualmente en diferentes ámbitos profesionales, comerciales y militares, resulta importante terminar este apartado con los modelos GPT, ya que es una aplicación del campo del procesamiento del lenguaje natural que bien puede aplicarse en el campo de los estudios de la información y la Bibliotecología.
3. Una aproximación a la IA
El concepto de inteligencia artificial comprende diversas herramientas que automatizan las actividades humanas de la forma más natural e intuitiva posible. Aunque la IA tiene diversas aplicaciones, no siempre se utiliza la misma herramienta. De hecho, existen distintos tipos de aplicaciones y programas que recurren a la IA mediante diversos modelos.
Un modelo es una representación matemática diseñada para efectuar una tarea específica; en materia de la IA existen enfoques o áreas que utilizan modelos para cumplir sus tareas. Por ejemplo, el PLN se centra en la interacción entre la computadora y el lenguaje humano, ello implica la comprensión del lenguaje, la generación de texto o la traducción automática. Dentro del PLN se pueden aplicar varios modelos como las redes neuronales, los modelos de lenguaje o los transformadores que cumplen dichas tareas. Si se toma el caso del GPT (Generative Pre-trained Transformer), este es un tipo de red neuronal basada en transformadores destinados a concretar tareas de procesamiento de lenguaje natural, que comprenden la comprensión y la generación del lenguaje.
Entonces, el modelo es el conjunto de parámetros y reglas que capturan los patrones o los comportamientos de datos con los que son entrenados para aprender e identificar patrones. Posteriormente, esta información puede servir para realizar análisis, clasificaciones o crear predicciones. En cuanto a la IA, es posible distinguir siete campos de aplicación; con todo, no hay un consenso sobre sus aplicaciones, así que, por la variedad y amplitud de sus enfoques, este listado no pretende ser definitivo. Cada uno de los siguientes campos tiene un rango de aplicaciones que comprenden diversas funcionalidades, las cuales se pueden complementar y trabajar en conjunto. Algunos de ellos son conocidos y se usan diariamente:
1. Aprendizaje automático (Machine learning). Permite a un sistema aprender de datos en lugar de programación explícita. A partir de datos que lo alimentan genera respuestas o resultados más precisos. Los ejemplos más comunes de esta aplicación son los algoritmos de los sitios de transmisión en directo y entretenimiento que detectan patrones y generan recomendaciones personalizadas.
2. Aprendizaje profundo (Deep learning). Dentro del aprendizaje automático, este se enfoca en el entrenamiento de redes neuronales artificiales profundas, son un tipo de arquitectura del aprendizaje automático compuesta de múltiples capas de nodos interconectados llamados neuronas. Estas redes neuronales profundas son capaces de aprender automáticamente a partir de datos complejos.
3. Procesamiento de lenguaje natural (PLN). Un sistema basado en PLN tiene la capacidad de comprender textos de la misma forma que un ser humano. Combina el modelado de lenguaje basado en reglas (lingüística computacional) con modelos estadísticos, lo que ayuda a procesar el lenguaje en forma de texto o datos de voz. La aplicación de este modelo son los diversos asistentes virtuales, como Alexa, Siri o Google.
4. Representación del conocimiento (Knowledge representation). Esta área de la IA representa el conocimiento de una forma en la que se puedan hacer inferencias a partir de un conocimiento previo. El campo donde se ha aplicado son los diagnósticos médicos.
5. Razonamiento automatizado (Automated reasoning). Dedicada a comprender los diferentes aspectos del razonamiento, de manera que sea posible crear programas capaces de razonar de forma casi automática. Algunas de sus aplicaciones son la resolución de problemas matemáticos o teoremas.
6. Reconocimiento de objetos. Esta técnica implica la identificación de objetos en imágenes, videos o por medio de una cámara. El programa adquiere una comprensión de los objetos identificados para reconocerlos. Las aplicaciones son el reconocimiento de rostro o la detección de objetos en la conducción autónoma.
7. Robótica. Un robot puede seguir órdenes preestablecidas y cumplir tareas sin ayuda. Combinado con el aprendizaje automático sería capaz de aprender y reaccionar ante alguna situación. Un ejemplo se halla en los almacenes robotizados de la tienda Amazon.
Una vez distinguidos los campos, se examinan los elementos esenciales para el funcionamiento apropiado de una herramienta de IA. Los componentes básicos son tres:
1. Datos: el corpus fundamental de información (texto, imágenes, audios, etc.) que alimenta y entrena los modelos de IA.
2. Modelos: estructuras matemáticas y algoritmos que procesan los datos para aprender y realizar tareas específicas. Los modelos pueden ser Aprendizaje automático, PLN, etc., los cuales analizan información para generar un resultado. A diferencia de los algoritmos, estos proporcionan una respuesta a partir de la información que reciben con base en las instrucciones del algoritmo.
3. Algoritmos: instrucciones o pasos lógicos que guían el funcionamiento de la IA para el procesamiento de datos en la resolución de un problema o la ejecución de una tarea. Estos pueden ser sencillos o complejos, conforme a la función que tienen como objetivo.
Por supuesto, existen más elementos, aquí solo se consideran aquellos que son parte del programa informático. Los correspondientes a los equipos informáticos, aunque son de igual manera importantes, se excluyen. Resta mencionar solamente que es necesario una unidad de procesamiento gráfico (GPU), una unidad de procesamiento tensorial (TPU), suficiente memoria del procesador para alto rendimiento, gran espacio de almacenamiento de acuerdo con la cantidad de datos que se requiera procesar y, en caso de trabajar en la nube, un servicio eficiente que permita el procesamiento de datos. También se debe considerar que una aplicación puede ser efectiva o ineficiente según la calidad de datos e información con la que se alimente, lo mismo que la optimización de los algoritmos que se apliquen.
4. La IA en los estudios de la información
La IA, basada en el procesamiento del lenguaje natural (PLN), está transformando diversas áreas al mejorar la búsqueda, la recuperación de información y los servicios de referencia en línea. Además de acelerar respuestas en el ámbito bibliotecario, es posible combinar distintos modelos para abordar tareas más complejas, como la gestión eficiente de grandes cantidades de información.
Por ejemplo, la Biblioteca Nacional de España, a través del proyecto BNElab (https://bnelab.bne.es/), explora las posibilidades de aplicación de la IA en diferentes áreas como la gestión y el análisis de datos, la detección de elementos de imágenes, el reconocimiento automático de entidades, las materias a partir de los corpus textuales, la mejora del reconocimiento automático de caracteres (OCR) y el reconocimiento de textos manuscritos, la transcripción voz-texto-voz, las búsquedas semánticas en los recursos digitales, el uso de chatbots y la realidad aumentada para mejorar la experiencia de los usuarios (Sánchez Nogales, 2023). De igual modo, iniciativas privadas de integración de chatbots en los servicios bibliotecarios, como BiblioCommons (https://www.bibliocommons.com/), ofrecen servicios en diferentes centros de información y bibliotecas.
El uso de la IA, al menos en las bibliotecas, aún se encuentra en evolución, bajo una suerte de experimentación. Ese hecho lleva a conocer y descubrir lentamente sus posibilidades, alcances y límites, algunas instituciones están explorando su adaptación a la luz de las necesidades y los recursos específicos con los que cuentan. Thomas Padilla (2019), a través de la OCLC (Online Computer Library Center), en su trabajo Responsible Operations: Data Science, Machine Learning, and AI in Libraries, comenzó a enfocar su atención en la incorporación de la IA a diversos campos, lo cual facilitará una mejor comprensión de las competencias, experiencias y capacidades necesarias en el contexto de las bibliotecas y los estudios de la información. Esto demuestra, por supuesto, la necesidad de afrontar este desafío en beneficio de bibliotecarios, archivistas y profesionales en conjunto.
Sin embargo, en el ámbito de la bibliotecología, la aparición de una tecnología no implica su aceptación o implementación inmediata. Existe una reticencia en el uso de la tecnología y su aplicación. De acuerdo con Amanda Wheatley y Sandy Hervieux (2019) de la universidad de McGill en Quebec,
historically, the library has been reluctant to change, often waiting for a particular technology to reach market saturation before reacting to a new trend. Once a patron has been readily- exposed to a technology across multiple venues, then the library will adopt its use (históricamente, la biblioteca ha sido renuente al cambio, a menudo esperando que una tecnología en particular alcance la saturación del mercado antes de reaccionar a una nueva tendencia. Una vez que un usuario ha estado expuesto fácilmente a una tecnología a través de varios lugares, entonces la biblioteca adoptará su uso). (Wheatley y Hervieux, 2019, p. 1)
Siguiendo el estudio de Weathley y Hervieux (2019), en el que analizaron planes estratégicos, artículos y programas de 27 prestigiosas universidades de Estados Unidos y Canadá, solo el 18.5 % tenía planes de trabajar con IA en sus bibliotecas, lo cual indica una falta de integración en sus planes de trabajo. Esta reticencia podría derivarse de la desconfianza en la tecnología por parte de los profesionales del área. Aunque su implementación puede demorarse un poco debido a la desconfianza, es posible afirmar que esta es una herramienta de cambio que podría beneficiar al campo profesional. Esto repercutirá en una mejora en los servicios o en los resultados de estudios e investigaciones.
La aplicación varía según las necesidades, la capacidad de desarrollo, la implementación y la creatividad. Las propuestas que se señalan aquí no son limitativas, pueden diversificarse conforme a los objetivos que se persiguen, las actividades y los resultados que se deseen obtener. Las aplicaciones son las siguientes:
-
1. Servicios de referencia virtual
-
Asistentes virtuales o chatbots que ofrezcan servicios de referencia en línea, respondan preguntas frecuentes sobre los servicios de la biblioteca, brinden ayuda para encontrar e identificar información relevante en bases de datos, catálogos de bibliotecas o repositorios. Además, que proporcionen información sobre recursos y servicios de información.
Este tipo de servicio puede ser personalizado para cada usuario y adaptarse a las respuestas y recomendaciones en función de la necesidad, el contexto, las preferencias y el historial de búsqueda, proporcionando una experiencia personalizada.
-
-
2. Análisis y procesamiento de texto
La tecnología PLN se utiliza para analizar y procesar grandes cantidades de texto, como documentos, artículos de investigación, blogs, entre otros. Estas tecnologías pueden servir para identificar temas, crear resúmenes automáticos, realizar análisis y extraer información relevante de los textos y de los sitios web.
-
3. Mejora de la búsqueda y recuperación de información
-
4. Gestión de la información
En este aspecto es posible automatizar tareas de gestión de la información, como la clasificación y el etiquetado de documentos, la gestión de metadatos y la organización de la información contenida en bases de datos y repositorios. Esto contribuye a la agilización de los procesos, lo que repercutiría positivamente en el ahorro de tiempo y recursos en la gestión de la información, sobre todo, en el procesamiento de datos masivos.
-
5. Extraer resúmenes de libros y características para las fichas catalográficas
-
Generación y recuperación de información para ayudar con algunos elementos de las fichas catalográficas. Así mismo, sería posible producir de forma automática resúmenes de libros, artículos o documentos de gran extensión, esto facilitaría procesar grandes cantidades de información.
La información obtenida puede actuar como guía para identificar contenido relevante dentro de un objeto de información y decidir si es o no es pertinente bajo los criterios y las necesidades de información de las colecciones.
-
-
6. Asesoría en la gestión de colecciones
Se pueden ofrecer recomendaciones y asesoramiento en la gestión de colecciones en bibliotecas, como la identificación de los recursos obsoletos, la selección de nuevos materiales, la planificación de adquisiciones y la evaluación del uso de los recursos. Esto ayudaría a la toma de decisiones informadas sobre la gestión de las colecciones y la optimización del uso de los recursos disponibles.
-
7. Análisis estadístico sobre el uso de los materiales
En este rubro resulta posible obtener una estadística de forma automatizada sobre aquellos materiales más o menos consultados en una biblioteca. Este tipo de información se puede combinar con los perfiles de los usuarios y con la asesoría de la gestión de colecciones para aplicar los datos en ambas áreas.
-
8. Creación de perfiles de los usuarios o no-usuarios de la información
-
9. Generación de metadatos y ontologías
Se puede generar de forma automática metadatos, etiquetas o descripciones para los recursos de información en una biblioteca o repositorio digital. Esto podría mejorar la organización y la accesibilidad de los recursos, facilitando su búsqueda y su recuperación. Igualmente, sería posible establecer las relaciones entre las categorías y los conceptos en un dominio específico. A su vez, pueden servir para recuperar la información, los modelos de búsqueda semánticos y los sistemas de recomendación personalizados.
-
10. Análisis de macrodatos
-
11. Bibliometría
Se puede apoyar la tarea de cuantificación en la bibliometría a través de la aplicación de métodos matemáticos y estadísticos a la literatura producida en algún área del conocimiento específico, con el objetivo de medir resultados de la actividad humanística y científica bajo indicadores bibliométricos. Al respecto, sería posible obtener la cuantificación de publicaciones o citas de autores que permitan medir la repercusión, la importancia y el impacto tanto de las revistas como de los autores o las instituciones.
Algunas de las formas cómo se podría aplicar la IA responden a las necesidades que se quieran cubrir y el empleo que se le quiera dar a esta herramienta. Incluso, se podrían mejorar o automatizar procesos y la manera en que se hace investigación de formas impensables en este momento. Más allá de presentar una reflexión teórica sobre sus repercusiones y uso, esta propuesta señala sus posibles áreas de aplicación.
5. Consideraciones finales
Diversos desafíos conducen a explorar nuevas formas de aprovechar la tecnología. Estos desafíos transformarán tanto los procesos bibliotecarios como el desarrollo y los enfoques en el terreno de la investigación. A pesar de la amplia aplicación y el potencial para mejorar la calidad de la información, el factor humano es insustituible, porque siempre será necesario para verificar los datos y los resultados obtenidos.
Es crucial pasar de la reflexión a la acción y considerar formas prácticas de aplicar herramientas y modelos en este campo. La falta de familiaridad con la IA impide formar un juicio sobre ella. Según sugirió el estudio de Wheatley y Hervieux, es una práctica común que las bibliotecas esperen para adoptar una tecnología, lo cual podría ser contraproducente. La aplicación oportuna de herramientas como la IA es esencial, ya que el tiempo puede ser un factor en contra de los beneficios que se podrían obtener tanto en la investigación como en las bibliotecas.
Al respecto, no solo se advierten las áreas en las que la IA puede aplicarse, sino también es importante reconocer el papel clave que tiene un profesional de la información, por cuanto es el usuario más cercano y quien puede evaluar, comprobar y verificar el buen funcionamiento de las herramientas y su confiabilidad. Además, es quien otorga credibilidad a la herramienta mediante las validaciones y evaluaciones detalladas que permitan confiar en ella. Para apreciar los contextos de aplicación, es importante que los profesionales de la información adquieran habilidades específicas, entre ellas:
Capacidad para distinguir entre los tipos de herramientas.
Analizar las diferencias entre los procesos que puede realizar una persona y una herramienta de IA.
Distinguir entre los tipos de IA y sus aplicaciones en el área.
Identificar los servicios y las tareas en los que la IA podría implementarse. (Upshall, 2022, p. 13).
A pesar de la utilidad de la IA, es esencial recordar que no puede reemplazar completamente la interacción humana ni la experiencia de los profesionales de la información. Más bien, estas herramientas son un apoyo para mejorar la eficiencia y la personalización de servicios y procesos, si bien tienen limitaciones como sesgos y dificultades para distinguir veracidad de falsedad. Así, el conocimiento profundo de estas herramientas permite su aplicación efectiva en contextos específicos.
Aunque ya existen declaratorias y discusiones sobre la implementación de la IA, como la propuesta por la IFLA (2023), Statement on Libraries and Artificial Intelligence, su incorporación está redefiniendo gradualmente actividades profesionales con un potencial significativo.














