viernes, 17 de febrero de 2012

Historia de la Inteligencia Artificial


1.      Génesis de la inteligencia artificial (1943-1956).
·         Reconocido en general como el  primer trabajo de IA, fue realizado por Warren McCulloch y Waiter Pitts(1943).propusieron un modelo construido por neuronas artificiales en el  que cada uno de ellos se caracteriza por estar “encendida” o “apagada”.
·         Donald Hebb(1949) demostró una sencilla regla de actualización  para modificar las intensidades de las conexiones entre neuronas, de manera que ocurriera el aprendizaje.
·         A principios de la década de los 50´s, Claude Shannon (1950) y Alan Turing (1953) se ocupan de escribir programas de ajedrez para computadoras convencionales.
·         Dos estudiantes de postgrado del departamento de Princeton, Marvin Minsky y Dean Edmonds, construyeron la primera computadora de red neuronal en 1951(la SNARC).
·         E l verano de 1956 se organizo un taller de dos meses en Dartmouth en el que en lo último  que resulto fue el consenso en adoptar el nuevo nombre propuesto por McCarthy para este campo: inteligencia artificial.

2.      Entusiasmo inicial, grandes esperanzas (1952-1969).
·         Algunos investigadores  de IA se refieren a esta época como la de “mira mama, ahora sin manos”.
·         Al temprano éxito de Newell y Simon siguió el del solucionador de problemas (SGP) fue el primer programa  que incorporo el enfoque del “pensar como humano”.
·         Herbert  Gelernter(1959) construyo el demostrador de teoremas  de geometría (DTG).
·         A principios de 1952, Arthur Samuel escribió una serie de programas para el juego de damas, los que a la postre aprendieron el juego a nivel de torneo. El programa fue presentado en la televisión en el 1956 y produjo una honda impresión.
·         En el laboratorio  de  IA del MIT Memo #1, McCarthy  definió el lenguaje de alto nivel Lisp. Otros inventaron el tiempo compartido.
·         1958 McCarthy publico un articulo en el que describía el escucha consejos (EC) que podría considerarse como el primer sistema de IA completo.
·         Se descubrió el método de la resolución por J.A.Robinson.
·         Se hablo de dominios limitados que vinieron a ser conocidos como micro mundos.
·         El mas famoso de los micromundos fue el de los bloques.
·         También florecieron  las actividades enfocadas alas redes neuronales  de McCoulloch y Pitts.
·         Rosenblatt demostró el famoso teorema de convergencia del porceptron.

3.      Una dosis de realidad (1966-1974).
·         En 1958 Simon predijo  que en el lapso de  10 años una computadora  llegara a ser campeona de ajedrez, y seria posible realizar mediante la maquina la demostración de un nuevo e importante teorema matemático.
·         Elm primer ripo de obstáculo se origino en los antiguos programas.El programa ELIZA de Weizenbaum (1965) mediante el que aparentemente se podía entablar una conversación seria sobre cualquier tema, de hecho tomaba prestadas  y manipulaba las oraciones  que mediante un teclado proporcionaba un ser humano.
·         El segundo obstáculo fue el de la intratabilidad de muchos delos problemas  que se estaban intentando resolver mediante IA.
·         Los primeros experimentos en el campo de la evolución de maquina o computadora  estaban basados en la premisa de que efectuando  una adecuada serie  de pequeñas mutaciones a un programa de código de maquina  se podría generar un buen desempeño.
·         El tercer obstáculo derivo de las limitaciones inherentes  a las estructuras básicas que se utilizaban en la generación  de la conducta inteligente.

4.      Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979)
·         Surgieron los métodos  débiles  por los mecanismos de  búsqueda de propósito general.
·         DENTRAL (Buchanan et al.,1969)constituye uno de los primeros ejemplos  del enfoque de la respuesta anticipada. Fue diseñado en Stanford.
·         La trascendencia de DENTRAL fue la de ser el primer sistema de conocimiento intensivo que logra funcionar: sus conocimientos se basaban en importantes cantidades de reglas para propósitos espectrales.
·         Surgió la nueva metodología de sistemas expertos.
·         En MYCIN se contaba  con un cálculo de incertidumbre denominado factores de certeza.
·         La importancia del conocimiento  se demostró también en el área de la comprensión del lenguaje natural (sistema SHRDLU DE Winograd).
·         LUNAR fue el primer programa de lenguaje natural utilizado por personas distintas al autor  del sistema  para realizar una tarea (construido por William Woods (1973)).
La IA se convierte en una industria (1980-1988).
·         EL PRIMER SISTEMA EXPERTO comercial, RI, inicio sus actividades en Digital Equipment Corporation (Mc Dermott, 1982).
·         Para 1986 representaba para la compañía ahorros estimados  en 40 millones de dólares al año.
·         En 1988 el grupo de inteligencia artificial de la DEC había distribuido  ya 40 sistemas expertos.
·         En 1981 los japoneses anunciaron el proyecto de la “quinta generación”, un pla de 10 años  para construir computadoras inteligentes en los que se corriese Prolog(lenguaje de programación), de manera idéntica a como las computadoras comunes corren código de maquina.
·         Se fundo la Microelectronic  and Computer Technology Corporation(MCC),comop consorcio para contrarrestar al gobierno japonés
      El regreso de las redes neuronales (1986 al presente).
·         El impulso más fuerte se produjo en la década de los 80, cuando por lo menos cuatro grupos distintos  reinventaron el algoritmo de aprendizaje de retro programación mencionado por vez primera en  1969.
·          En muchas compañías y grupos de investigación  encontraron que para construir un sistema experto  satisfactorio se necesitaba algo mas que un sistema  de razonamiento lleno de reglas.
     5.- Acontecimientos recientes (1987 al presente).
·         Actualmente es mas común construir  sobre teorías ya existentes que proponer teorías  totalmente novedosas.
·         Un buen modelo para  demostrar utilidad es el del campo de la comprensión del lenguaje.
·         En años recientes prevalecen en el área los  enfoques basados  en los modelos  de Markov ocultos(MMO).
·         otra área que al parecer se ha beneficiado con la formalización es la planeación.
·         La aparición de Probabilistic Reasoning and Intelligent Systems, Judea Perl(1988), señalo  la bienvenida al mundo de la probabilidad y de la teoría de decisiones  en IA.
·         El trabajo de Allen Newell, John Laird y Paul Rosembloom en el SOAR es el ejemplo mas conocido de una arquitectura de agente local en IA.
BIBLIOGRAFIA
LIBRO: INTELIGENCIA ARTIFICIAL UN ENFOQUE MODERNO
AUTORES: RUSSELL  Y NORVING
PAGS: 9-27

jueves, 16 de febrero de 2012

Fundamentos de la inteligencia artificial


La inteligencia artificial es un campo joven, es heredera de diversas ideas, puntos de vistas y técnicas de otras disciplinas.
  • ·     En la filosofía durante más de 2000 años  han surgido  diversas teorías del razonamiento y  del aprendizaje, simultáneamente con el punto de vista de que la mente se reduce al funcionamiento de un sistema físico.
  • ·         En más de 400 años de matemática, han surgido diversas teorías formales relacionadas con la lógica, probabilidad, toma de decisiones y computación.
  • ·     La psicología ofrece herramientas que permiten la investigación de la mente humana, así como un lenguaje científico para expresar las teorías que se van o0bteniendo.
  • ·         La lingüística ofrece teorías sobre la estructura y significado del lenguaje.
  • ·         De la ciencia de la computación se toman las herramientas que permiten que la inteligencia artificial sea una realidad
Aportes a la IA:
FILOSOFIA (428 a. c. al presente):
Ø  Platon,Socrates y Aristoteles sentaron las bases de  gran parte del pensamiento y cultura occidentales.
Ø  El filosofo Hubert Dreyfus(1979), afirma que:”Bien podría afirmarse  que la historia  de la IA comienza en el año 450 a.c.” y Sócrates  dice: “desearía saber cual es la característica de la piedad que hace que una acción se pueda considerar como pía…y asi la observe y me sirva de norma para juzgar tus acciones y las de otros ”.Lo que Sócrates deseaba era un algoritmo.
Ø  Rene Descartes (1596-1650), propuso la noción del dualismo.Sostenia que existe una parte de la mente que esta al margen de la naturaleza, exenta de la influencia de las leyes físicas.
Ø  El movimiento empírico  iniciado con el Novum Organum Francis Bacon(1561-1626), se caracteriza por el aforismo Jonh Locke(1632-1704):”Nada existe en la mente  que no haya pasado antes por los sentidos”.
Ø  David Hume (1711-1776) propone lo que actualmente se conoce como principio de la inducción.
Ø  Bertrand Russell (1872-1970), introdujo el positivismo lógico.
Ø  Rudolf Carnap y Carl Hempel con la teoría de la confirmación intentaron definir el tipo de conexión que existe entre oraciones de observación y otras teorías de carácter más general.
Ø  Aristoteles  propone una solución elegante es se Etica Nicomaquea. El enfoque fue uimplantado 2300 años  mas tarde por Newell y Simon atraves de su programa SGP.
MATEMATICAS (aproximadamente del año 800 al presente):
*   Se hizo una formalización matemática  en tres áreas principales: computación, lógica y probabilidad.
*   La lógica data, por lo menos desde Aristóteles, su naturaleza era mas filosófica que matemática, hasta que George Boole(1815-1864) introdujo su lenguaje formal para hacer inferencias lógicas en 1847.
*   En 1879 Gottlob Frege (1848-1825) creo una lógica que constituye la lógica de primer orden que se utiliza actualmente como sistema básico de representación del conocimiento.
*   En 1930 Kurt Gödel(1906-1978)  mediante su teorema de incompletez  demostró que en cualquier lenguaje que tuviera la capacidad suficiente  para expresar las propiedades de los números naturales , existen aseveraciones  verdaderas indecidible: no es posible definir su validez mediante ningún algoritmo.
*   Alan Turing(1912-1954) lo anterior lo motivo  a tratar de caracterizar  exactamente aquellas funciones  de los números enteros  que no se pueden representar mediante algoritmo, es decir, no se pueden calcular. Turing demostró también que existen algunas funciones  que no es posible calcular mediante la maquina del mismo nombre.
*   Intratabilidad tuvo repercusiones importantes  ya que se dice que una clase de problema  se denomina intratable  si el lapso necesario para la resolución de casos particulares  de dicha clase crce al menos exponencialmente  con el tamaño de tales casos.
*   La reducción surgió en la década de los 60’s (Dantzing, 1960; Edmond, 1962).
*   Teoria de la completez NP propuesta por Steven Cook (1971) y Richart Karp(1972).
*   La tercera gran contribución de las matemáticas a la IA es la teoría de la probabilidad. Fue el italiano Gerolamo Cardano(1501-1576) quien concibiera primero la noción de probabilidad y la presento como posibles resultados  de los juegos de apuesta. A esta teoría contribuyeron  Pierre Fermat (1601-1665), Blas Pascal (1623-1662), James Bernoulli (1654-1705), Pierre Laplace (1749-1827) y otros mas hicieron avanzar  esta teoría e introdujeron nuevos métodos estadísticos.
*   Thomas Bayes (1702-1761) propuso una regla para la actualización de las probabilidades subjetivas a la luz de las nuevas evidencias (publicada postuamente en 1763).
*   En la teoría de las decisiones, propuesta por vez primera por John Von Neumann y Oskar Morgenstern (1944),se combina la teoría de la probabilidad con la teoría de la de la utilidad. 

Psicología (de 1879 al presente)
·         Se afirma que la psicología científica se inicio con los trabajos del medico alemán Hermann Von Helmholtz(1821-1894) y su discípulo Wilhelm Wunt(1832-1920).
·         En 1879 Wunt inicio el ´primer laboratorio de  psicología experimental en la Universidad de Leipzig.
·         El movimiento conductista de  John Watson(1878-1958) y de Edward Lee Thorndike(1874-1949) fue una respuesta contra el subjetivismo y rechazaba sistemáticamente  toda teoría en la que intervinieran procesos  mentales .
·         La nocion de que  el cerebro posee y procesa información, característica principal de la psicología cognoscitiva se remonta, por lo menos a las obras de William James (1842-1910).
·         Craik encontró la pieza faltante entre el estimulo y la respuesta. Establece  tres condiciones  fundamentales    para los agentes basados en el conocimiento.
·         Actualmente muchos psicólogos  aceptan casi de manera tacita  que “una teoría cognoscitiva deberá ser como un programa de computadora” (Anderson, 1980).
 Ingenieria  Computacional (de 1940 al presente):

·    La primera computadora moderna  que se acho a andar  fue la Heath Robinson, construida en 1940 por Alan Turing y cuyo propósito era el desciframiento de mensajes alemanes.
·         E n 1943 se construye una maquina con bulbos la Colossus
·         La primera computadoras  programable fue la Z-3, inventada por Konrad Zuse en A lemania , en 1941 e invento los números de punto flotante.
·         John Atanasoff y su discípulo de postgrado armaron la primera computadora electrónica la ABC.
·         Howard Aiken diseño a Mark I,II,III en Harvard.
·         John Mauchly y Eckert diseño la ENIAC, la primera computadora digital.
·         El avance mas notable fue la aparición  de la IBM 701,construida en 1952 por Nathaniel Rochester y su grupo.
·         En 1805  Joseph Marie  Jacquard invento un telar  que se podía programar  utilizando tarjetas  perforadas.
·         Ada Lovelace diseño programas para la maquina analista y asi se convirtió en el primer  programador del mundo.
Lingüística (de 1957 al presente)
v  En 1957 B.F. Skinner publico Verbal Behavior (conducta verbal), una vasta y detallada explicación del enfoque conductista al aprendizaje del lenguaje.
v  Chomsky demostró como la teoría conductista no aborda el tema de la creatividad en el lenguaje.
v  Estudios posteriores en el capo de la lingüística hicieron patente  que los problemas  eran más complejos que los abordados en 1957.
v  La lingüística moderna y la IA nacieron al mismo tiempo y ambas crecieron juntas y se cruzaron en un campo hibrido denominado lingüística computacional o procesamiento de lenguaje natural.