Inteligencia artificial: desde sus orígenes hasta la actualidad
Cuando se habla de Inteligencia Artificial, se piensa inmediatamente en tecnología punta, en robots capaces de entender y decidir qué hacer, y en un mundo futurista en el que conviven máquinas y humanos. En realidad, la Inteligencia Artificial y su uso son mucho más reales de lo que uno puede imaginar, y ya se están utilizando en diversos ámbitos de la vida cotidiana. Sin embargo, estos usos son menos invasivos de lo que se podría pensar, o de lo que suelen mostrar las películas de ciencia ficción, que han encontrado en el tema de la Inteligencia Artificial el punto de partida de muchas series más o menos exitosas.
Pero……,
¿Qué es realmente la Inteligencia Artificial y cómo se ha desarrollado?
Inteligencia Artificial, en términos técnicos, la Inteligencia Artificial es una rama de la informática que permite programar y diseñar sistemas tanto de hardware como de software que permiten dotar a las máquinas de ciertas características que se consideran típicamente humanas, como, por ejemplo, la percepción visual, espacio-temporal y la toma de decisiones. Es decir, no se trata sólo de la inteligencia entendida como la capacidad de calcular o de conocer datos abstractos, sino también y sobre todo de todas esas diferentes formas de inteligencia que reconoce la teoría de Gardner, y que van desde la inteligencia espacial a la social, desde la cinestésica a la introspectiva. Un sistema inteligente, de hecho, se crea intentando recrear una o varias de estas diferentes formas de inteligencia que, aunque a menudo se definen como simplemente humanas, en realidad pueden remontarse a comportamientos particulares que pueden ser reproducidos por ciertas máquinas.
¿Cómo y cuándo nació la Inteligencia Artificial?
Tal y como se define hoy en día, la Inteligencia Artificial nació con la llegada de los ordenadores y su fecha de nacimiento está fijada en 1956. Fue en este año, de hecho, cuando se habló por primera vez de la Inteligencia Artificial durante una conferencia celebrada en América y en la que participaron algunos de los nombres más importantes de lo que más tarde se definiría como Inteligencia Artificial, pero que entonces se llamaba Sistema Inteligente. Durante esta histórica conferencia, se presentaron varios programas que ya eran capaces de realizar algunos razonamientos lógicos, especialmente relacionados con las matemáticas. De hecho, el programa Logic Theorist, desarrollado por dos informáticos, Allen Newell y Herbert Simon, era capaz de demostrar ciertos teoremas matemáticos a partir de cierta información.
IBM Watson Como es fácil imaginar, los años que siguieron al nacimiento de la Inteligencia Artificial fueron de gran efervescencia intelectual y experimental: las universidades y las empresas informáticas, entre ellas IBM en particular, se centraron en la investigación y el desarrollo de nuevos programas y software capaces de pensar y actuar como los seres humanos, al menos en determinados campos y sectores. Esto condujo a la creación de programas capaces de demostrar teoremas cada vez más complejos y, sobre todo, al nacimiento de Lisp, el primer lenguaje de programación que constituyó la base del software de inteligencia artificial durante más de treinta años. La peculiaridad de los años 1950-1960 fue sobre todo el sentimiento de optimismo que sostenía toda la investigación y los experimentos relacionados con esta rama: sin embargo, si por un lado era posible desarrollar programas informáticos cada vez más sofisticados, capaces de resolver sobre todo elaboraciones matemáticas, por otro lado empezaban a aparecer las primeras limitaciones de la Inteligencia Artificial, que no parecía capaz de reproducir las capacidades intuitivas y de razonamiento propias del ser humano.
Durante la segunda mitad de los años 60, se hizo cada vez más evidente que lo que se había conseguido hasta entonces en el campo de la Inteligencia Artificial ya no era suficiente para las nuevas necesidades, que eran sobre todo las de crear máquinas y programas capaces de ir más allá de la «simple» solución de teoremas matemáticos más o menos complejos. La nueva tendencia que se estaba creando era la de buscar soluciones a problemas más cercanos a la realidad del hombre, como la de resolver problemas cuyas soluciones podían variar en función de la evolución de los parámetros en curso. Por ello, uno de los principales retos de la época era intentar reproducir programas informáticos y máquinas que pudieran razonar y aportar soluciones basadas en el análisis de diferentes posibilidades. Pero este tipo de problema requería un paso más antes de ser resuelto, a saber, el de crear caminos semánticos para las máquinas, es decir, un lenguaje que permitiera programar las distintas posibilidades que ofrece un razonamiento, ya sea simple o complejo. Como suele ocurrir con los grandes descubrimientos e investigaciones, la transición de un paso a otro no resultó nada sencilla: la investigación en este campo sufrió una brusca desaceleración, sobre todo porque, debido a la producción de resultados, se redujo drásticamente toda la financiación para este tipo de investigaciones.
Inteligencia artificial y biología
A diferencia de lo que la mayoría de la gente imagina, el nuevo impulso a la investigación de la Inteligencia Artificial no provino del campo de la informática, sino del de la biología. En 1969, estudiantes e investigadores del Instituto Tecnológico Carnegie crearon un programa llamado DENDRAL, capaz de reconstruir una molécula simple a partir de la información obtenida de un espectrómetro de masas. Esta información se refería principalmente a la masa molecular del elemento analizado, y el resultado se basaba sobre todo en el profundo conocimiento que la máquina tenía de determinados campos de aplicación. La investigación, aunque realizada por expertos en lenguajes informáticos, encontró su primera aplicación en un campo absolutamente innovador y, sobre todo, permitió encontrar un nuevo camino y un nuevo impulso hacia lo que sería el renacimiento de la Inteligencia Artificial, basada en los llamados sistemas expertos. Los sistemas expertos, a diferencia del software del equipo del Instituto Tecnológico Carnegie, eran capaces de encontrar soluciones específicas para determinados escenarios a partir de un conjunto de información básica. Con este punto de partida, los siguientes pasos tardaron poco en darse. A principios de la década de 1980, el primer sistema de IA se utilizaba con fines comerciales y, lo que es más importante, la investigación sobre IA se amplió geográficamente, involucrando no sólo a Estados Unidos, sino también a Japón y Europa.
La nueva era de la Inteligencia Artificial se abrió con el nuevo uso de un algoritmo que ya había sido ideado a finales de los años 60, pero que no había encontrado su máxima aplicación debido a las deficiencias de los sistemas de aprendizaje de los primeros programas de Inteligencia Artificial. Este fue el algoritmo que permitió el aprendizaje por redes neuronales, cuyos experimentos abarcaron tanto el ámbito puramente informático como el psicológico. Fue precisamente esta doble aplicación la que permitió a los desarrolladores de los sistemas inteligentes encontrar una amplia gama de aplicaciones. En concreto, el primer éxito real de la Inteligencia Artificial fue el enfrentamiento entre Deep Blue, una máquina fabricada por IBM, y el entonces campeón de ajedrez Garry Kasparov. Aunque Kasparov ganó las primeras partidas, las continuas mejoras introducidas en el sistema de aprendizaje de Deep Blue le permitieron asegurarse la victoria en las siguientes. Una victoria que, como confirmó el propio campeón de ajedrez, se debió seguramente a que la máquina había alcanzado un nivel de creatividad tan alto que superaba los propios conocimientos del jugador.
Otras aplicaciones de los sistemas de Inteligencia Artificial que son bien conocidas por el público en general son las utilizadas en los vehículos, que son capaces de conducir sin un conductor humano al volante. Estos vehículos están aún en fase experimental, pero cada vez alcanzan mayores grados de seguridad, sobre todo gracias al uso de sensores y cámaras que, al igual que los ojos y los oídos humanos, son capaces de percibir todo lo que ocurre durante la conducción, tomar decisiones y realizar maniobras de seguridad.
Conciencia, conocimiento y resolución de problemas
En el centro de los problemas asociados al desarrollo de sistemas y programas de Inteligencia Artificial se encuentran tres parámetros que representan las piedras angulares del comportamiento humano, a saber, un conocimiento no estéril, una conciencia que permite tomar decisiones no sólo de acuerdo con la lógica y la capacidad de resolver problemas de diferentes maneras según el contexto.
El uso de redes neuronales y algoritmos capaces de reproducir el razonamiento típico de los seres humanos en diferentes situaciones ha permitido a los sistemas inteligentes mejorar cada vez más sus diversas capacidades de comportamiento. Para poder conseguirlo, la investigación se ha centrado no sólo en el desarrollo de algoritmos cada vez más nuevos, sino sobre todo en algoritmos cada vez más capaces de imitar diferentes comportamientos en función de los estímulos del entorno. Estos complejos algoritmos, integrados en sistemas inteligentes, son por tanto capaces de «tomar decisiones», es decir, de realizar elecciones en función de los contextos en los que están inmersos. En el caso de los algoritmos conectados a los sistemas de los vehículos inteligentes, por ejemplo, un coche sin conductor puede decidir, en caso de peligro, si debe dirigir o frenar en función de la situación, es decir, en función de si la información enviada por los distintos sensores permite calcular un mayor porcentaje de seguridad para el conductor y los pasajeros frenando o dirigiendo.
Las decisiones de todo tipo, ya sean tomadas por un coche no tripulado o por otros sistemas de IA, se toman, como ya se ha especificado, gracias a la realización de determinados algoritmos, que permiten definir una base de conocimientos y un conocimiento ampliado, es decir, creado a través de la experiencia. Para realizar algoritmos cada vez más precisos y complejos, ha surgido un verdadero y propio sector específico, definido como representación del conocimiento, que estudia todas las posibilidades del razonamiento humano y, sobre todo, todas las posibilidades de hacer comprensible este conocimiento a las máquinas a través de un lenguaje y unos comandos cada vez más precisos y detallados. Cuando hablamos del conocimiento humano y de la transferencia de este conocimiento a las máquinas, no nos referimos únicamente a un conocimiento estéril, es decir, a nociones aprendidas en libros u otras herramientas de estudio. Se trata más bien de la experiencia y de la posibilidad de comprender la nueva información mediante la información ya presente en el sistema de origen. Esta información se suministra a la máquina de diferentes maneras, las más importantes de las cuales son las basadas en la Teoría de los Lenguajes Formales y en la Teoría de las Decisiones.
En el primer caso, cuando utilizamos la Teoría de los Lenguajes Formales, optamos por utilizar diferentes enfoques (los reconocidos son el generativo, el reconocedor, el denotacional, el algebraico y el transformacional) que se refieren a las teorías de las Cadenas y sus usos. De hecho, las cadenas son lenguajes formales cuyas propiedades varían según el enfoque utilizado. Por lo tanto, se puede optar por un enfoque u otro en función de los resultados que se pretendan obtener, es decir, en función del tipo de respuesta que se quiera obtener de la máquina en las diferentes situaciones.
La teoría de la decisión, por su parte, se basa en un árbol de decisión que permite evaluar las posibles consecuencias de cada acción/decisión para luego tomar la decisión más conveniente. Por lo tanto, en función de los ajustes y de la finalidad del programa, el sistema podrá tomar la decisión que mejor optimice el resultado deseado. Hay que tener en cuenta que situaciones similares pueden tener resultados diferentes según el tipo de plan de acción definido por los algoritmos de la máquina.
El uso de la Teoría de las Decisiones y de los árboles de decisión merece un estudio más profundo, ya que se explota más en todos aquellos sistemas inteligentes que se utilizan en la vida cotidiana. ¿Cómo funciona un árbol de decisión? Sin entrar en detalles, basta con saber que un árbol de decisión se basa en modelos predictivos que parten de una serie de informaciones y datos iniciales. A continuación, estos datos pueden desglosarse para definir tanto la estructura, es decir, el tipo de predicciones posibles, como la precisión de las mismas. Es precisamente la precisión de los datos lo que permite obtener sistemas inteligentes que se diferencian entre sí por las respuestas que son capaces de dar, dependiendo no tanto del número de datos en los que se basan las decisiones, sino de la precisión de los mismos. También hay que destacar que la cantidad de datos disponibles para la elaboración de Inteligencias Artificiales puede interferir en la precisión del modelo utilizado. Por esta razón, los modelos más precisos presentan una cantidad de información de partida que a menudo es inferior a la que se puede imaginar: la bondad del modelo está, sin embargo, asegurada por el tipo de datos de partida y por la precisión de los mismos.
Aprendizaje automático
Uno de los principales avances en la historia de la Inteligencia Artificial se produjo cuando fue posible crear algoritmos específicos capaces de mejorar el comportamiento de la máquina (es decir, la capacidad de actuar y tomar decisiones), que puede aprender a través de la experiencia, al igual que los seres humanos. Desarrollar algoritmos que sean capaces de aprender de sus errores es fundamental para crear sistemas inteligentes que operen en contextos para los que los programadores no pueden prever a priori todas las posibilidades de desarrollo y los contextos en los que operará el sistema. Por lo tanto, a través del aprendizaje automático, una máquina es capaz de aprender a realizar una determinada acción incluso si esa acción nunca ha sido programada como una acción posible.
Para los no iniciados, el aprendizaje automático representa probablemente la parte más «romántica» de la Inteligencia Artificial, aquella de la que varios directores han podido sacar ideas interesantes para sus películas más o menos conocidas, que ven cómo las máquinas y los robots mejoran con el tiempo precisamente porque son capaces de aprender a través de la experiencia. Más allá del interés escénico y ficticio que pueda tener el machine learning, detrás de esta particular rama de la Inteligencia Artificial siempre ha habido (y hay) una profunda investigación, tanto teórica como práctica, basada, entre otras cosas, en la teoría computacional del aprendizaje y en el reconocimiento de patrones. La complejidad del aprendizaje automático ha llevado a la necesidad de dividirlo en tres posibilidades diferentes, en función de las peticiones de aprendizaje realizadas a la máquina. Se habla de aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. La diferencia entre las tres modalidades radica principalmente en el diferente contexto en el que la máquina debe moverse para aprender las reglas generales y particulares que la llevan al conocimiento. En el aprendizaje supervisado, en particular, la máquina recibe ejemplos de objetivos que debe alcanzar, mostrando las relaciones entre la entrada, la salida y el resultado. A partir del conjunto de los datos mostrados, la máquina debe ser capaz de extrapolar una regla general, que le permita, cada vez que sea estimulada con una entrada determinada, elegir la salida correcta para alcanzar el objetivo.
En cambio, en el caso del aprendizaje no supervisado, la máquina debe ser capaz de tomar decisiones sin haber sido «educada» previamente en las diferentes posibilidades de salida en función de las entradas seleccionadas. En este caso, por tanto, el ordenador no tiene un profesor que le permita aprender, sino que aprende exclusivamente de sus propios errores. Por último, las máquinas que se educan mediante el aprendizaje por refuerzo tienen que interactuar con un entorno en el que las características son variables. Se trata, por tanto, de un entorno dinámico, en el que la máquina debe moverse para completar un objetivo sin tener ningún tipo de indicación, salvo, al concluir la prueba, la posibilidad de saber si ha conseguido o no alcanzar el objetivo inicial.
El aprendizaje automático ha sido posible gracias al desarrollo de las redes neuronales artificiales, es decir, un modelo matemático particular que, inspirado en las neuronas humanas y en las redes neuronales, pretende resolver diferentes problemas en función de las posibilidades de conocer las entradas y los resultados obtenidos según las elecciones realizadas. El nombre de red neuronal se debe a que este modelo matemático se caracteriza por una serie de interconexiones entre todas las informaciones necesarias para los diferentes cálculos. Además, al igual que las redes neuronales biológicas, también una red neuronal artificial tiene la característica de ser adaptativa, es decir, de poder variar su estructura adaptándola a las necesidades específicas derivadas de las diferentes informaciones obtenidas en las distintas fases del aprendizaje. Desde el punto de vista matemático, una red neuronal puede definirse como una función compuesta, es decir, dependiente de otras funciones que, a su vez, pueden definirse de forma diferente según otras funciones de las que dependen. Esto significa que nada, dentro de una red neuronal, puede dejarse al azar: cada acción del sistema inteligente será siempre el resultado de la elaboración de cálculos destinados a verificar los parámetros y definir las incógnitas que definen las propias funciones.
La inteligencia artificial en la vida cotidiana
Muchas personas creen que el uso de sistemas inteligentes queda relegado a determinadas élites informáticas sin pensar que, en cambio, la Inteligencia Artificial también se utiliza ampliamente en la vida cotidiana. Por ejemplo, las diversas herramientas de reconocimiento de voz que se utilizan habitualmente, desde los teléfonos inteligentes hasta los sistemas de seguridad, se basan en algoritmos propios de la Inteligencia Artificial, en particular los relacionados con el aprendizaje automático. Bien conocido en el panorama del machine learning y la Inteligencia Artificial es el uso de esta herramienta en el sector de la automoción. Los vehículos capaces de moverse en el tráfico incluso sin conductor son ya algo que va más allá de la experimentación, aunque su uso se limite a determinados sectores y situaciones. Por otro lado, están muy explotadas todas aquellas aplicaciones que hacen uso de la lógica Fuzzy, que permiten crear sistemas de cambio de velocidad en coches con conducción semiautónoma.
Muchos proyectos de Inteligencia Artificial se utilizan, sobre todo, en el ámbito de la programación de juegos.
Otros ámbitos en los que la Inteligencia Artificial se utiliza de forma habitual son la bolsa, la medicina y la robótica. Además, los sistemas inteligentes también se utilizan para mejorar muchos ámbitos de la propia informática. Por último, en el campo de la medicina, la Inteligencia Artificial está utilizando principalmente las redes neuronales, sobre todo en el análisis de los latidos del corazón, en el diagnóstico de ciertas formas de cáncer y en la creación de robots de compañía.
Por último, muchos smartphones y dispositivos móviles modernos también cuentan con plataformas basadas en sistemas de Inteligencia Artificial, que permiten una interacción real entre el teléfono y su propietario, lo que es esencial para varias funciones. Algunos teléfonos modernos, por ejemplo, tienen sensores que pueden detectar si el propietario del teléfono está caminando o conduciendo, en cuyo caso se pondrá automáticamente en modo de conducción para garantizar la máxima seguridad de uso. Además, algunos teléfonos encienden automáticamente la linterna incorporada cuando se dan cuenta de que el propietario se mueve en la oscuridad. Las funciones son diferentes y muy variadas según el teléfono, pero todas ellas destinadas a mejorar la comodidad y la seguridad de sus usuarios.
El futuro de la Inteligencia Artificial
Hasta hace unos años, el principal problema de todos los científicos implicados en la investigación de la Inteligencia Artificial era poder demostrar la posibilidad realista de utilizar sistemas inteligentes para el uso cotidiano, ahora que este objetivo se ha conseguido en gran medida, nos preguntamos a menudo cuál puede ser el futuro de la Inteligencia Artificial. Ciertamente, aún queda mucho camino por recorrer, sobre todo en determinados sectores, pero con la conciencia de que la Inteligencia Artificial es ya una realidad y no una hipótesis, las dudas se refieren sobre todo a las distintas posibilidades de utilización de los sistemas inteligentes y su impacto en el tejido social y económico. Y aunque el entusiasmo por la evolución tecnológica es ciertamente muy evidente en varios sectores, el temor a que las máquinas puedan sustituir pronto a los humanos por completo en muchos lugares de trabajo se ha colado con mayor insistencia en la mente de muchos. Los avances tecnológicos ya han provocado en el pasado la sustitución de la mano de obra humana por máquinas y ordenadores, que se han utilizado con mayor rapidez y, sobre todo, de forma más barata en diversos sectores. Con el uso masivo de la Inteligencia Artificial, es posible que se pierdan más puestos de trabajo, pero también es cierto que se abrirán cada vez más vías para la creación de nuevos tipos de figuras profesionales. Pero el contraste entre el hombre y la máquina es un ámbito mucho más amplio que no sólo está relacionado con la evolución de la Inteligencia Artificial y los sistemas inteligentes, sino también y sobre todo con la moral y la ética del trabajo y el buen uso de las máquinas respecto al hombre. La dirección que tomará probablemente aún no está bien definida, pero podría conducir a una nueva revolución cultural e industrial.