HISTORIA DE LA
INTELIGENCIA ARTIFICIAL.
Génesis de la inteligencia artificial (1943-1956)
Reconocido
en general como el primer trabajo de IA, fue realizado por Warren McCulloch y
Walter Pitts (1943). Abrevaron de tres fuentes: conocimientos sobre la
fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis
formal de la lógica proposicional de Russell y Whitehead y la teoría de la
computación de Turing. Propusieron un modelo constituido por neuronas
artificiales, en el que cada una de ellas se caracterizaba por estar
“encendida” o “apagada”; en el encendido se daba como respuesta a la
estimulación producida por una cantidad suficiente de neuronas vecinas. El
estado de una neurona se veía como “equivalente, de hecho, a una proposición
que propusiera sus estímulos adecuados”.
Entusiasmo inicial, grandes esperanzas (1952-1969)
A
principios de 1952, Arthur Samuel escribió una serie de programas para el juego
de damas, los que a la postre aprendieron el juego a nivel de torneo. De paso,
echo por la tierra la idea de que las computadoras solo pueden hacer lo que se
les dice, puesto que su programa aprendió rápidamente a jugar mejor que su
creador. El programa fue demostrado en la televisión en febrero de 1956 y
produjo una honda impresión. Como Turing, Samuel tenía dificultadas para
obtener tiempo de cómputo. Trabajaba en las noches y empleaba máquinas que
todavía estaban en etapa de prueba en la planta de fabricación de IBM.
John
McCarthy se pasó de Darmouth al MIT, y en el año histórico de 1958 hizo tres
contribuciones cruciales. En el laboratorio de IA del MIT Memo No.1, McCarthy
definió el lenguaje de alto nivel Lips, que se convertiría en el lenguaje de
programación más antiguo que se utiliza actualmente. Con el Lips McCarthy ya
tenía la herramienta que necesitaba, pero aún existía el grave problema de los
escasos y costosos recursos de cómputo. Para resolverlo, él y otros en el MIT
que formaron Digital Equipment Corporation, y que se convertiría en el segundo
más importante fabricante de computadoras del mundo, gracias a sus
minicomputadoras de tiempo compartido.
Minsky
supervisaba el trabajo de unos estudiantes, quienes eligieron problemas
limitados cuya solución parecía requerir de la inteligencia. Estos dominios
limitados vinieron a ser conocidos como micromundos. El programa SAINT de James
Slagle (1963a) fue capaz de resolver problemas de integración de forma cerrada
comunes en los cursos de cálculo de primer año de licenciatura. El programa de
Bertram Raphael SIR Semantic Iformation Retrieval (recuperación de información
semántica) (1968) pudo aceptar aseveraciones de entrada de un subgrupo en inglés
muy restringido y produjo las correspondiente respuestas.
Rosenblatt
demostró el famoso teorema de convergencia de perceptrón, con lo que su
algoritmo de aprendizaje podía ajustar las intensidades de conexión de un
perceptrón para que correspondiera a cualquier dato de entrada, siempre y cual
tal correspondencia fuese factible.
Una dosis de realidad (1966-1974)
Si
bien términos tales como “futuro previsible” acepta un amplio margen de
interpretación, algunas de las predicciones hechas por Simon fueron más
concretas. En 1958, predijo que el lapso de 10 años una computadora llegaría
hacer campeona de ajedrez, y sería posible realizar mediante la maquina la
demostración de un nuevo e importante teorema matemático.
El
primer tipo de obstáculo se originó en los antiguos programas, los cuales
contaban con poco o ningún conocimiento de la materia objeto de estudio;
lograban resultados gracias a la realización de sencillas manipulaciones
sintácticas.
El
segundo obstáculo fue el de la intratabilidad de muchos de los problemas que se
estaban intentado resolver mediante IA. La mayoría de los primeros programas de
IA se basaban en la representación de las características básicas de un
problema y se sometían a prueba de diversos pasos, hasta que se llegara
encontrar aquella combinación de estos que produjeran la solución esperada.
El
tercer obstáculo derivó de las limitaciones a las estructuras básicas que se
utilizaban en la generación de la conducta inteligente. Un caso específico era
la imposibilidad de capacitar un perceptrón de dos entradas a discernir si
estas eran diferentes.
Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979)
La
naturaleza de la resolución de problemas durante la primera década de la
investigación en IA residía en un mecanismo de búsqueda de propósito general en
el que se entrelazaban pasos de razonamiento elementales para encontrar así
soluciones completas. La trascendencia de DENDRAL fue la de ser el primer
sistema de conocimiento intensivo que logra funcionar: sus funcionamientos se
basaban en importantes cantidades de reglas para propósitos especiales. En
sistemas diseñados posteriormente se incorporó también lo fundamental de lo
propuesto para el EC de McCarthy: la nítida separación del conocimiento y la
parte correspondiente al razonamiento.
Teniendo
presente esta lección, Feigenbaum y otros, en Stanford, dieron inicio al
proyecto de Programación Heurística, PHH, dedicado a determinar el grado con el
que la nueva metodología de los sistemas expertos podía aplicarse a otras áreas
de la actividad humana.
En
primer lugar, a diferencia de las reglas de DENDRA, no se contaba con un modelo
teórico desde el cual se pudieran deducirse las reglas de MYCD. En segundo
lugar, las reglas deberían reflejar la
incertidumbre inherente al conocimiento médico.
La IA se convierte en una industria (1980-1988)
El
primer sistema expreso comercial, R1, inicio sus actividades en Digital
Equipment Corporation. El programa se utilizaba en la elaboración de pedidos de
nuevos sistemas de computación. Para 1986 representaba para la compañía ahorros
estimados en 40 millones de dólares al año. En 1988, el grupo de inteligencia
artificial de la DEC había distribuido ya 40 sistemas expertos, y esperaba
tener más.
En
la floreciente industria de la IA figuraban también compañías tales como
Camegie Group Inference, Intellicorp y Teknowledge, las que disponían de
herramientas de software necesarias para construir sistemas expertos, así como
compañías de hardware como Lips Machines, inc; Texas Instruments, Symbolics y Xerox, en donde se
construían estaciones de trabajo optimizadas para el diseño de programas en
Lips. Más de un centenar de compañías construyeron sistemas de visión robótica
para uso industrial. En suma, en esta industria las ventas pasaron de ser unos
cuentos millones el 1980 a veinte mil millones de dólares en 1988.
El regreso de las redes neuronales (1986 al presente)
Si bien
en la ciencia de la computación se ha hecho a un lado el campo de los redes
neuronales luego de la publicación del libre de Minsky y Papert, se ha
continuado trabajando en otros campos, especialmente en física. Podría
equiparse a los grandes grupos formados por simples neuronas con los grandes
conglomerados formados por átomos que constituyen a los sólidos.
Algunos
anticiparon la llegada de un “invierno para la IA”, acompañado de una severa reducción
de fondos para patrocinarlas actividades de la IA.
Acontecimientos recientes (1987 al presente)
En
años recientes se ha podido atestiguar u cambio tanto en contenido como en metodología
en las investigaciones de la IA. Actualmente es más común construir sobres las teorías
totalmente novedosas, tomar como base rigurosos teoremas o sólidas evidencias
experimentales más que de la intuición, y demostrar la utilidad de las
aplicaciones en el mundo real más que crear ejemplos de juguete.
Un
buen modelo de lo anterior es el campo de la comprensión del lenguaje. En la década
de los 70 se sometió a prueba una gran variedad de arquitecturas y enfoques.
Muchos de ellos fueron poco ad hoc y resultaban endebles, y fueron probados en
unos cuantos ejemplos elegidos específicamente. En años recientes en el área los
enfoques prevalecen basados en los modelos de Markov ocultos, MMO. Son dos las características
de los MMO que tienen relevancia en esta explicación. Primera se basan en una
rigurosa teoría matemática, lo que ha permitido a los investigadores del
lenguaje basarse en décadas de resultados de investigaciones matemáticas hechas en otros campos. En
segundo lugar, los modelos han sido generados mediante un proceso de aprendizaje
basado en un gran volumen de datos del lenguaje real. Lo anterior garantiza un
sólido desempeño; en severas pruebas de ciego, los MMO logran cada vez mejores
calificaciones. La tecnología del lenguaje y su campo vinculado de la comprensión
de caracteres manuscritos actualmente están en transición hacia una
generalizada cantidad de aplicaciones industriales y de consumo.
Otra
área que al parecer se ha beneficiado con la formalización es la planeación. La
aparición de Probabilistic Reasoning and Intelligent Systems, Judea Pearl (1988),
señaló la bienvenida al uso de la probabilidad y de la teoría de decisiones en
IA, como secuela del resurgimiento del interes por la utilización y cuyo epítome
fue el articulo “In defense of Probability” de Peter Cheeseman (1985). La invención
del formalismo de red de creencia obedece a la necesidad de poder razonar eficientemente
ante una combinación de evidencias inciertas.
No hay comentarios:
Publicar un comentario