lunes, 20 de abril de 2009

HISTORIA DE LA INTELIGENCIA ARTIFICIAL

1. INTRODUCCIÓN
La finalidad de la inteligencia artificial consiste en crear teorías y modelos que muestren la organización y funcionamiento de la inteligencia. Actualmente, el mayor esfuerzo en la búsqueda de la inteligencia artificial se centra en el desarrollo de sistemas de procesamientos de datos que sean capaces de imitar a la inteligencia humana, realizando tareas que requieran aprendizaje, solución de problemas y decisiones. A veces llamada inteligencia de máquina, la inteligencia artificial o AI (Artificial Intelligence) cubre una vasta gama de teorías y prácticas.
1.1 La base de la inteligencia artificial
La inteligencia artificial se basa en dos áreas de estudio: el
cuerpo humano y el ordenador electrónico. Puesto que la meta es copiar la inteligencia humana, es necesario entenderla. Sin embargo, a pesar de todos los progresos en Neurología y Psicología, la inteligencia del hombre se conoce poco, exceptuando sus manifestaciones externas. Muchos estudiosos de la inteligencia artificial se han vuelto – para obtener su modelo de inteligencia – hacia el estudio de la Psicología cognoscitiva, que aborda la forma de percibir y pensar de los seres humanos.. Después comprueban sus teorías programando los ordenadores para simular los procesos cognoscitivos en el modelo. Otros investigadores intentan obtener teorías generales de la inteligencia que sean aplicables a cualquier sistema de inteligencia y no solo al del ser humano.
1.2 ¿Pueden pensar las
máquinas?
En 1950 el matemático
inglés Alan M. Turing publicó un ensayo que comenzaba así: "Quiero proponer una pregunta: ¿Pueden pensar las máquinas?." Como la pregunta era demasiado vaga (¿Qué entendemos por "pensar"?), Turing desarrolló un experimento basado en un juego de salón en el que una personaformula a dos jugadores escondidos (un hombre y una mujer) preguntas que le servirán para descubrir cuál de los dos es la mujer. Turing propuso sustituir uno de los dos jugadores escondidos por una máquina inteligente capaz de conversar. Si el examinador, que se servía de un teletipo para comunicarse, no podían distinguir cuál de los dos jugadores era la máquina, ello evidenciaría – según Turing – que la máquina podía pensar. En la actualidad, este experimento de Turing podría ser superado, en situaciones limitadas, por muchos programas de ordenador estudiados para dialogar con el usuario.
Investigaciones acerca de la inteligencia artificial realizadas en la
Universidadde Yale (EE.UU.) han llevado al desarrollo de programas de ordenador mediante los cuales éstos pueden aprender y razonar. Otros estudiosos de la inteligencia artificial están poniendo a punto sistemas para dotar a los ordenadores de capacidad visual y auditiva. Una importante área de investigación es la del lenguaje normal, que permite a los ordenadores comunicarse mediante lenguaje humano en lugar de hacerlo en lenguaje de máquina. Es decir, la mayoría de los ordenadores están programados para recibir e interpretar instrucciones de este tipo: S#DYR=48-56, LOC=AS NOT SW, EN=RALSTON". Únicamente personas preparadas son capaces de comunicarse eficazmente de esta forma. Pero si un ordenador programado para gestionar la documentación de una compañía petrolífera pudiese entender la orden dactilografiada (traducción de la anterior) "Encuéntrame toda la documentación relativa a las perforaciones de los pozos de Arabia Saudita entre 1948 y 1956, pero únicamente la de los pozos en que trabajó Ralston, no los de la zona surocciodental del país", muchas personas podrían utilizarlo.
1.3 Los fines de la IA
Las primeras
investigaciones acerca de la inteligencia artificial estaban principalmente dirigidas al hallazgo de una técnica universal para la solución de problemas. Este intento a gran escala ha sido abandonado y las investigaciones actuales están dirigidas al diseño de numerosos programas para ordenadores capaces de imitar los procesos de toma de decisiones de expertos, como médicos, químicos, basados en los conocimientos de especialistas en cada materia, son ahora utilizados para diagnosticar enfermedades, identificar moléculas químicas, localizar yacimientos de minerales e incluso diseñar sistemas de fabricación. Investigaciones acerca de la percepción han sido aplicadas a los robots y se han diseñado algunos capaces de "ver". La meta final consiste en crear un sistema capaz de reproducir todas las facetas de la inteligencia humana.
2. HISTORIA Y EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL
La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de
neurona del cerebro humano y animal. Estas neuronas nerviosas abstractas proporcionaron una representación simbólica de la actividad cerebral.
Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que se llamó "
cibernética"; de aquí nacería, sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora
ciencia, tomaron como base la neurona formalizada de McCulloch y postulaban que:
"El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro".
Pero si consideramos la enorme complejidad del mismo esto es ya prácticamente imposible, ni que mencionar que el
hardware de la época ni el software estaban a la altura para realizar semejantes proyectos.
Se comenzó a considerar el
pensamiento humano como una coordinación de tareas simples relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo que ellos consideraban como los fundamentos de la solución inteligente de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas actividades simples.
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto
éxito, se llamó el Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el cual se asociaron esfuerzos para que se pudieran resolver una gama amplia de problemas, pero estas energías se diluyeron enseguida.
Fue en los años 60 cuando
Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas). Éste era un sistema en el que el usuario definía un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando, claro está, con microcosmos formalizados que representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error. En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el sistema experto.
El primer sistema experto fue el denominado
Dendral, un intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU).
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales como el
LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción.
Desarrollo Histórico (según Jackson, 1986)
1950-1965 Periodo "clásico"
· Gestación (McColluck y Pitts,
Shannon, Turing)
· Inicio - reunión de Darmouth College en 1956 (
Minsky, McCarthy)
· Redes neuronales,
robótica (Shakey)
· Búsqueda en un espacio de estados, Heurísticas,
LISP
· Solucionador general de problemas (
GPS) (Newell, Simon)
· Juegos, prueba de teoremas
· Limitaciones de pura búsqueda, explosión combinatoria.
1965-1975 Periodo "romántico"
· Representación "general" del
conocimiento.
· Redes semánticas (Quillian)
· Prototipos (frames) (
Minsky)
· Perceptrón (
Minsky y Papert)
· Lógica (Kowalski)
· Mundo de bloques (
SHDRLU) (Winograd)
· Compresión de lenguaje, visión, robótica.
· Dificultades de representación "general", problemas de "juguete".
1975-Hoy Periodo "moderno". Inteligencia "especifica" vs. "general"
· Representación explícita del conocimiento específico del
dominio.
·
Sistemas expertos o basados en conocimiento.
· Regreso de
redes neuronales (Hopfield, Rumelhart, Hinton), algoritmos genéticos (Holland, Goldberg) Reconocimiento de voz (HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje. Aplicaciones "reales" (medicina, finanzas, ingeniería, exploración, etc.).
· Limitaciones: conocimiento "superficial"
Desarrollo Histórico (según Russell y Norvig, 1995):
Gestación (1943-1956):
· McCullock y Pitts (1943)
· Hebb (1949)
·
Shannon (1950)
· Turing (1953)
·
Minsky y Edmonds (1951)
· Darmouth College (1956)
·
McCarthy, Newell y Simon, « The Logic Theorist »
Entusiasmo y grandes expectativas (1952-1969):
· Samuel - checkers (1952)
·
McCarthy (1958): LISP: time sharing, Programs with common sense.
·
Minsky y McCarthy en MIT moldearon mucho del área.
·
Minsky, Evans, Student, Waltz, Winston, Winograd, etc.
· Trabajo en RN: Hebb, Widrow, RosenblattDosis de realidad (1966-1974):
· Simon predecía que en 10 años se tendría una máquina inteligente.
· Predicciones similares en traducción automática y ajedrez.
· Teoría de NP- completness.
· Experimentos en machine evolution (ahora algoritmos genéticos; estaban bien fundados pero no produjeron nada.) (Friedberg, 1958)
·
Minsky y Papert Perceptrons (1969) (aunque irónicamente el mismo año se descubrió backpropagation (Bryson y Ho))
Sistemas basados en conocimiento (1969-1979):
·
Dendral, Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (no hay sintáxis), frames, Prolog, Planner
IA como
industria (1980-1988):
· R1/XCON, proyecto de la quinta generación, shells y máquinas de LISP.
Regreso de
redes neuronales (1986-presente):
· Hopfield, Rumelhart y Hinton y descenso de los SE
Eventos recientes (1987-presente):
· Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez y estabilidad) ej., reconocimiento de voz (HMM), incertidumbre (Bayes), planeación (Tweak), robótica, aprendizaje (PAC), etc.
3. CARACTERÍSTICAS DE LA INTELIGENCIA ARTIFICIAL
1. Una característica fundamental que distingue a los
métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
2. El
comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
3. El razonamiento basado en
el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la
resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica, usada principalmente en el campo industrial; comprensión de lenguajes y traducción; visión en máquinas que distinguen formas y que se usan en líneas de ensamblaje; reconocimiento de palabras y aprendizaje de máquinas; sistemas computacionales expertos.
Los
sistemas expertos, que reproducen el comportamiento humanoen un estrecho ámbito del conocimiento, son programas tan variados como los que diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos sismológicos en exploración geológica y los que configuran complejos equipos de alta tecnología.
Tales tareas reducen
costos, reducen riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto, y mejoran el control de calidad sobre todo en el ámbito comercial.

No hay comentarios:

Publicar un comentario