viernes, 17 de febrero de 2012

HISTORIA DE LA INTELIGENCIA ARTIFICIAL


HISTORIA DE LA INTELIGENCIA ARTIFICIAL.
Génesis de la inteligencia artificial (1943-1956)
Reconocido en general como el primer trabajo de IA, fue realizado por Warren McCulloch y Walter Pitts (1943). Abrevaron de tres fuentes: conocimientos sobre la fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica proposicional de Russell y Whitehead y la teoría de la computación de Turing. Propusieron un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar “encendida” o “apagada”; en el encendido se daba como respuesta a la estimulación producida por una cantidad suficiente de neuronas vecinas. El estado de una neurona se veía como “equivalente, de hecho, a una proposición que propusiera sus estímulos adecuados”.
Entusiasmo inicial, grandes esperanzas (1952-1969)
A principios de 1952, Arthur Samuel escribió una serie de programas para el juego de damas, los que a la postre aprendieron el juego a nivel de torneo. De paso, echo por la tierra la idea de que las computadoras solo pueden hacer lo que se les dice, puesto que su programa aprendió rápidamente a jugar mejor que su creador. El programa fue demostrado en la televisión en febrero de 1956 y produjo una honda impresión. Como Turing, Samuel tenía dificultadas para obtener tiempo de cómputo. Trabajaba en las noches y empleaba máquinas que todavía estaban en etapa de prueba en la planta de fabricación de IBM.
John McCarthy se pasó de Darmouth al MIT, y en el año histórico de 1958 hizo tres contribuciones cruciales. En el laboratorio de IA del MIT Memo No.1, McCarthy definió el lenguaje de alto nivel Lips, que se convertiría en el lenguaje de programación más antiguo que se utiliza actualmente. Con el Lips McCarthy ya tenía la herramienta que necesitaba, pero aún existía el grave problema de los escasos y costosos recursos de cómputo. Para resolverlo, él y otros en el MIT que formaron Digital Equipment Corporation, y que se convertiría en el segundo más importante fabricante de computadoras del mundo, gracias a sus minicomputadoras de tiempo compartido.
Minsky supervisaba el trabajo de unos estudiantes, quienes eligieron problemas limitados cuya solución parecía requerir de la inteligencia. Estos dominios limitados vinieron a ser conocidos como micromundos. El programa SAINT de James Slagle (1963a) fue capaz de resolver problemas de integración de forma cerrada comunes en los cursos de cálculo de primer año de licenciatura. El programa de Bertram Raphael SIR Semantic Iformation Retrieval (recuperación de información semántica) (1968) pudo aceptar aseveraciones de entrada de un subgrupo en inglés muy restringido y produjo las correspondiente respuestas.
Rosenblatt demostró el famoso teorema de convergencia de perceptrón, con lo que su algoritmo de aprendizaje podía ajustar las intensidades de conexión de un perceptrón para que correspondiera a cualquier dato de entrada, siempre y cual tal correspondencia fuese factible.


Una dosis de realidad (1966-1974)
Si bien términos tales como “futuro previsible” acepta un amplio margen de interpretación, algunas de las predicciones hechas por Simon fueron más concretas. En 1958, predijo que el lapso de 10 años una computadora llegaría hacer campeona de ajedrez, y sería posible realizar mediante la maquina la demostración de un nuevo e importante teorema matemático.
El primer tipo de obstáculo se originó en los antiguos programas, los cuales contaban con poco o ningún conocimiento de la materia objeto de estudio; lograban resultados gracias a la realización de sencillas manipulaciones sintácticas.
El segundo obstáculo fue el de la intratabilidad de muchos de los problemas que se estaban intentado resolver mediante IA. La mayoría de los primeros programas de IA se basaban en la representación de las características básicas de un problema y se sometían a prueba de diversos pasos, hasta que se llegara encontrar aquella combinación de estos que produjeran la solución esperada.
El tercer obstáculo derivó de las limitaciones a las estructuras básicas que se utilizaban en la generación de la conducta inteligente. Un caso específico era la imposibilidad de capacitar un perceptrón de dos entradas a discernir si estas eran diferentes.
Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979)
La naturaleza de la resolución de problemas durante la primera década de la investigación en IA residía en un mecanismo de búsqueda de propósito general en el que se entrelazaban pasos de razonamiento elementales para encontrar así soluciones completas. La trascendencia de DENDRAL fue la de ser el primer sistema de conocimiento intensivo que logra funcionar: sus funcionamientos se basaban en importantes cantidades de reglas para propósitos especiales. En sistemas diseñados posteriormente se incorporó también lo fundamental de lo propuesto para el EC de McCarthy: la nítida separación del conocimiento y la parte correspondiente al razonamiento. 
Teniendo presente esta lección, Feigenbaum y otros, en Stanford, dieron inicio al proyecto de Programación Heurística, PHH, dedicado a determinar el grado con el que la nueva metodología de los sistemas expertos podía aplicarse a otras áreas de la actividad humana.
En primer lugar, a diferencia de las reglas de DENDRA, no se contaba con un modelo teórico desde el cual se pudieran deducirse las reglas de MYCD. En segundo lugar, las reglas deberían reflejar  la incertidumbre inherente al conocimiento médico.
La IA se convierte en una industria (1980-1988)
El primer sistema expreso comercial, R1, inicio sus actividades en Digital Equipment Corporation. El programa se utilizaba en la elaboración de pedidos de nuevos sistemas de computación. Para 1986 representaba para la compañía ahorros estimados en 40 millones de dólares al año. En 1988, el grupo de inteligencia artificial de la DEC había distribuido ya 40 sistemas expertos, y esperaba tener más.
En la floreciente industria de la IA figuraban también compañías tales como Camegie Group Inference, Intellicorp y Teknowledge, las que disponían de herramientas de software necesarias para construir sistemas expertos, así como compañías de hardware como Lips Machines, inc; Texas  Instruments, Symbolics y Xerox, en donde se construían estaciones de trabajo optimizadas para el diseño de programas en Lips. Más de un centenar de compañías construyeron sistemas de visión robótica para uso industrial. En suma, en esta industria las ventas pasaron de ser unos cuentos millones el 1980 a veinte mil millones de dólares en 1988.
El regreso de las redes neuronales (1986 al presente)
Si bien en la ciencia de la computación se ha hecho a un lado el campo de los redes neuronales luego de la publicación del libre de Minsky y Papert, se ha continuado trabajando en otros campos, especialmente en física. Podría equiparse a los grandes grupos formados por simples neuronas con los grandes conglomerados formados por átomos que constituyen a los sólidos.
Algunos anticiparon la llegada de un “invierno para la IA”, acompañado de una severa reducción de fondos para patrocinarlas actividades de la IA.
Acontecimientos recientes (1987 al presente)
En años recientes se ha podido atestiguar u cambio tanto en contenido como en metodología en las investigaciones de la IA. Actualmente es más común construir sobres las teorías totalmente novedosas, tomar como base rigurosos teoremas o sólidas evidencias experimentales más que de la intuición, y demostrar la utilidad de las aplicaciones en el mundo real más que crear ejemplos de juguete.
Un buen modelo de lo anterior es el campo de la comprensión del lenguaje. En la década de los 70 se sometió a prueba una gran variedad de arquitecturas y enfoques. Muchos de ellos fueron poco ad hoc y resultaban endebles, y fueron probados en unos cuantos ejemplos elegidos específicamente. En años recientes en el área los enfoques prevalecen basados en los modelos de Markov ocultos, MMO. Son dos las características de los MMO que tienen relevancia en esta explicación. Primera se basan en una rigurosa teoría matemática, lo que ha permitido a los investigadores del lenguaje basarse en décadas de resultados de investigaciones  matemáticas hechas en otros campos. En segundo lugar, los modelos han sido generados mediante un proceso de aprendizaje basado en un gran volumen de datos del lenguaje real. Lo anterior garantiza un sólido desempeño; en severas pruebas de ciego, los MMO logran cada vez mejores calificaciones. La tecnología del lenguaje y su campo vinculado de la comprensión de caracteres manuscritos actualmente están en transición hacia una generalizada cantidad de aplicaciones industriales y de consumo.
Otra área que al parecer se ha beneficiado con la formalización es la planeación. La aparición de Probabilistic Reasoning and Intelligent Systems, Judea Pearl (1988), señaló la bienvenida al uso de la probabilidad y de la teoría de decisiones en IA, como secuela del resurgimiento del interes por la utilización y cuyo epítome fue el articulo “In defense of Probability” de Peter Cheeseman (1985). La invención del formalismo de red de creencia obedece a la necesidad de poder razonar eficientemente ante una combinación de evidencias inciertas.                                                                                                                                                                                                                                                                    

No hay comentarios:

Publicar un comentario