lunes, 20 de abril de 2009

Inteligencia Artificial. Aplicaciones en medicina

En medicina, existen algunas aplicaciones recientes que tienen como objetivo fundamental el de servir de apoyo al trabajo del médico en determinadas circunstancias, y entre las cuales podemos señalar las siguientes:
1. Asistente basado en casos para la clínica psiquiátrica.
2. Sistema basado en casos para el procesamiento de imágenes de tomografía axial computarizada y resonancia magnética, de tumores cerebrales.
3. Sistema asistente para el manejo de pacientes en unidades de cuidados intensivos.
4. Asistente basado en casos para el diagnóstico y análisis del síndrome dismórfico.
5. Sistema de razonamiento automatizado para el diagnóstico y pronóstico del cáncer de próstata.
6. Sistema para la evaluación inicial de pacientes con SIDA.
7. Sistema basado en casos que utiliza una red neuronal artificial para el diagnóstico del infarto agudo de miocardio.
8. Sistema de RBC para el pronóstico de cardiopatías congénitas en recién nacidos.
9. Sistema basado en casos para el cálculo de la dosis de antibióticos en cuidados intensivos.
10.Sistema de RBC para la detección de la enfermedad coronaria por escintigramas coronarios.

El robot piramidal


El primer prototipo avanzado del proyecto ANTS es el mencionado TETWalker (caminante tetraédrico, llamado así por su forma, una pirámide con tres caras y una base). Motores eléctricos en las esquinas de la pirámide (nodos), unidos a las barras telescópicas que forman los lados de ésta, permiten su movimiento como en las patas de un trípode de cámara. La pirámide se desplaza cambiando la longitud de los lados, alterando el centro de gravedad de la pirámide y haciendo que se tumbe. El prototipo fue llevado a la Antártida en enero, donde fue probado en condiciones difíciles y semejantes a las existentes en Marte. A partir de estas pruebas los ingenieros han concluido que los motores deben ser desplazados al centro de las barras para una mayor fiabilidad.
En el futuro, estos robots serán mucho más pequeños, cuando sus motores sean reemplazados por sistemas micro o nanoelectromecánicos (MEMS y NEMS). Las barras serán sustituidas con nanotubos de carbono, permitiendo aumentar su número.

Estos TETwalkers en miniatura, desplegados en enjambres, podrán cambiar su forma para alcanzar una gran variedad de objetivos. Por ejemplo, podrán aplanarse para adoptar una forma aerodinámica durante el descenso por la atmósfera de Marte, moverse como una serpiente por la superficie, actuar como antena al encontrar algo interesante, etc.Si el robot recibe algún tipo de daño en alguna de sus partes, los nodos y barras podrán reconectarse adecuadamente y desechar los segmentos inútiles. Mientras, los científicos intentan desarrollar sofisticados medios de control mediante inteligencia artificial, que permitan gobernar enjambres de un gran número de miembros.



Proyecto Blue Brain


El proyecto Blue Brain, para muchos comparable al Proyecto Genoma Humano. Comenzó con una colaboración entre IBM, que utiliza una máquina dotada con 8 mil procesadores que trabajan en paralelo para simular la forma en que las neuronas intercambian información en tiempo real, y el profesor y director de esta investigación, es el Suizo, Henry Markram. Quien ha pasado los últimos 15 años tratando de crear una simulación, neurona por neurona, del cerebro.
Se persigue crear un modelo del cerebro humano (la IA fuerte pretendía crear un modelo de la mente), con el fin de comprender el funcionamiento del mismo, como se produce el pensamiento, como es su percepción de la realidad, como se forma la conciencia. Hasta el momento estamos refiriéndonos a un modelo del cerebro y no de la copia del cerebro.
Cuando se modela un objeto este puede representar la estructura del objeto, las funciones del objeto, pero nunca será el objeto. Ejemplo, la maqueta de un edificio, la representación en 3D, la simulación, etc. Estos nos permite que objetos complejos puedan ser estudiados sin tener que alterar o dañar el objeto real (en muchos casos es un problema de costos).
Como ya dijimos la mente y el cerebro son considerados por la IA como dos entes independientes: uno esta representando por el software y el otro por el hardware de la maquina)
La clave esta si retomamos la metáfora de la IA fuerte de considerar al cerebro y la maquina como equivalentes, en ese caso estamos hablando de reproducir en cerebro en una maquina. Hay que tener claro este concepto cuando hablamos de una modelo estamos hablando de una representación del objeto real y no de una reproducción del objeto real.
Salvo que aceptemos la idea de la IA fuerte de que ambos son sistemas que procesan información entonces estaríamos hablando de la posibilidad de reproducir las conexiones del cerebro en un circuito electrónico.
El modelo del cerebro pretende ser una plantilla genérica que permita simular las diferentes especificaciones. De nuevo se persigue un modelo general al estilo del solucionador general de problemas de los primeros años de la IA.
El proyecto cuenta con el apoyo de IBM que entrego una supercomputadora capaz de procesar 22 trillones de operaciones por segundo.Markram espera contar con un virtual cerebro humano, con todos sus 100 mil millones de neuronas, el funcionamiento en el año 2015. Para ello, el equipo de investigación formado por bioinformáticos, neurólogos y arquitectos, pretende pasar por diferentes fases de modelización completa de las funciones del órgano gris: rata, gato, primate y, finalmente, el hombre.
El proyecto, actualmente, ha sido capaz de desarrollar la red neuronal de una rata de 2 semanas de edad, y uno de los lideres del proyecto dice que ya saben como crear lo microcircuitos similares a los del cerebro y que lo único que queda por hacer es poder escalarlo.
En un futuro se pretende crear una simulación en 3D de todo el cerebro humano a nivel molecular.Para terminar retomamos algunas de las ideas de Ray Kurzweil de quien ya hemos hablado en otros artículos. Quien considera que es posible la exploración del cerebro para trazar un mapa de sus localizaciones, conexiones, interconexiones y contenidos lo cual permitirá realizar la copia del cerebro en otro medio no biológico.
Y afirma que actualmente una computadora es más rápida que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano.
Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada.
El profesor norteamericano Andreas Nowatzyk ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.
Kurzweil esta convencido que es posible escanear el cerebro y luego instalarlo en otro medio no biológico, tales como los entornos de realidad virtual donde se podrán integrar todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y telecargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnologia, también podrán tenerlos en la realidad
Como decíamos una copia del cerebro no es el cerebro en si, tampoco queda claro que la reproducción del cerebro en otro medio no biológico, incluya la transferencia de la mente con todos sus pensamientos, sentimientos.
De ahí que las investigaciones del suizo, Markram sean más objetivos y se inclinen más a la simulación del cerebro neurona a neurona. En el otro extremo esta la ideología transhumanista que ve como viable la transferencia de la mente sin importar el sustrato (el cerebro) y sueñan con transferir su mente e incluso mejorarla a otros entornos como la realidad virtual.
Pero no se pueden ignorar los avances que se están obteniendo en todas partes del mundo con el escaneo del cerebro basado en tecnologías probadas como la tomografía digital y la resonancia magnética sin olvidar el impacto cada vez mayor de la neurociencia computacional...

La tecnologia: ¿Amiga o enemiga?

La copia del cerebro
Decir que el cerebro se puede copiar, parece un disparate, solo aceptable dentro de la ciencia ficción. Sin embargo, hoy por hoy, es una de las líneas de investigación en la que mas se esta trabajando, con resultados aun modestos, pero bastante significativos.
Cuando hablábamos de la posibilidad de que la maquina superara al hombre, distinguíamos dos enfoques, el de una inteligencia artificial (IA) débil y otra IA llamada fuerte.

La primera trata de lograr que las maquinas sean cada vez mas inteligente, mejorando sus capacidades (hard) y sus programas, pero sin imitar a la inteligencia humana, la fuerte, trata de reproducir la forma en que los humanos piensan.
Dentro de los intentos de la IA fuerte, estaba la idea de copiar la mente, mas bien reproducirla, en otro soporte, la maquina, que al igual que el cerebro es un sistema que procesa información (ambos cerebro y hard, son equivalentes). Pero los intentos de la IA fuerte, era reproducir totalmente la mente humana en un soporte electrónico, sin importar mucho como funcionaba el cerebro, la idea se centraba en descubrir los algoritmos de la mente.
Por otra parte, con las crisis sucesivas de la IA se fue pasando de un paradigma simbolista, reproducir los algoritmos de la mente a otro conexionista que trababa de emular las conexiones del cerebro, esto unido a los nuevos intentos de que proponían en lugar de hacerlo todo desde cero, pretendiendo desarrollar todos los algoritmos de la mente, porque no trabajar sobre la idea de mejorar el cerebro. Lo cual permitió un acercamiento a la neurología y nuevas áreas de investigación como la nueroiingenieria.
También vimos los avances en las prótesis y los intentos de mejorar las funciones del cerebro implantándole microchips, con lo cual se ha alcanzado una mejor comprensión sobre las funciones del cerebro, independientemente de las implicaciones éticas que esto podría tener en un futuro.
Una de las investigaciones que mas impacto esta teniendo es el escaneo del cerebro.
Con el escaneo del cerebro se pretende lograr una foto del cerebro, donde se detectan zonas dañadas, mal funcionamientos.

Críticas

Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución.
En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas.
Muchas personas consideran que el test de Turing ya ha sido superado. Hay quienes al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. Otros experimentos como la Habitación china de John Searle han mostrado cómo una máquina puede simular pensamiento sin tener que tenerlo y puede pasar muchos test, sin siquiera entender lo que hace. Algunos han criticado esto por el hecho obvio de que la máquina en realidad no está pensando, sino actuando en base a un programa preestablecido. Esta crítica se disuelve si se considera la educación de los humanos como programas preestablecidos, ya que la educación sería transmitir a un alumno reglas, procedimientos y algoritmos para resolver problemas y tomar decisiones.
Un sistema de inteligencia artificial tiene enormes ventajas respecto a los humanos. Por ejemplo, su capacidad de almacenamiento, su capacidad para tomar decisiones racionales sin prejuicios o emociones que perturben el resultado, y la no fijeza funcional. La fijeza funcional es el problema humano de acostumbrarse a utilizar conceptualmente un objeto sin poder utilizar dicho objeto para un fin distinto al habitual. Un ejemplo sería tener la capacidad de utilizar un martillo como percutor para clavar, o bien como pisapapeles en caso de ser necesario. Se ha logrado utilizar un objeto de un modo distinto al usual o para el cual ha sido creado.
Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido al lenguaje y apareció ya en los inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza.
Un humano durante toda su vida aprende el vocabulario de su lengua nativa y ningún humano puede conocer todas las palabras que existen en su idioma. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.
Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la cración de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).

DEFINICION

Se denomina inteligencia artificial a la rama de la ciencia informática dedicada al desarrollo de agentes racionales no vivos.
Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas). Y entiéndase a la
racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado. (Este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.
Existen distintos tipos de
conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.
También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de
agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:
Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).
Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
Algoritmos genéticos (Análogo al proceso de evolución de las cadenas de ADN).
Redes neuronales artificiales (Análogo al funciomiento físico del cerebro de animales y humanos).
Razonamiento mediante una Lógica formal (Análogo al pensamiento abstracto humano).
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de
control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.

HISTORIA DE LA INTELIGENCIA ARTIFICIAL

1. INTRODUCCIÓN
La finalidad de la inteligencia artificial consiste en crear teorías y modelos que muestren la organización y funcionamiento de la inteligencia. Actualmente, el mayor esfuerzo en la búsqueda de la inteligencia artificial se centra en el desarrollo de sistemas de procesamientos de datos que sean capaces de imitar a la inteligencia humana, realizando tareas que requieran aprendizaje, solución de problemas y decisiones. A veces llamada inteligencia de máquina, la inteligencia artificial o AI (Artificial Intelligence) cubre una vasta gama de teorías y prácticas.
1.1 La base de la inteligencia artificial
La inteligencia artificial se basa en dos áreas de estudio: el
cuerpo humano y el ordenador electrónico. Puesto que la meta es copiar la inteligencia humana, es necesario entenderla. Sin embargo, a pesar de todos los progresos en Neurología y Psicología, la inteligencia del hombre se conoce poco, exceptuando sus manifestaciones externas. Muchos estudiosos de la inteligencia artificial se han vuelto – para obtener su modelo de inteligencia – hacia el estudio de la Psicología cognoscitiva, que aborda la forma de percibir y pensar de los seres humanos.. Después comprueban sus teorías programando los ordenadores para simular los procesos cognoscitivos en el modelo. Otros investigadores intentan obtener teorías generales de la inteligencia que sean aplicables a cualquier sistema de inteligencia y no solo al del ser humano.
1.2 ¿Pueden pensar las
máquinas?
En 1950 el matemático
inglés Alan M. Turing publicó un ensayo que comenzaba así: "Quiero proponer una pregunta: ¿Pueden pensar las máquinas?." Como la pregunta era demasiado vaga (¿Qué entendemos por "pensar"?), Turing desarrolló un experimento basado en un juego de salón en el que una personaformula a dos jugadores escondidos (un hombre y una mujer) preguntas que le servirán para descubrir cuál de los dos es la mujer. Turing propuso sustituir uno de los dos jugadores escondidos por una máquina inteligente capaz de conversar. Si el examinador, que se servía de un teletipo para comunicarse, no podían distinguir cuál de los dos jugadores era la máquina, ello evidenciaría – según Turing – que la máquina podía pensar. En la actualidad, este experimento de Turing podría ser superado, en situaciones limitadas, por muchos programas de ordenador estudiados para dialogar con el usuario.
Investigaciones acerca de la inteligencia artificial realizadas en la
Universidadde Yale (EE.UU.) han llevado al desarrollo de programas de ordenador mediante los cuales éstos pueden aprender y razonar. Otros estudiosos de la inteligencia artificial están poniendo a punto sistemas para dotar a los ordenadores de capacidad visual y auditiva. Una importante área de investigación es la del lenguaje normal, que permite a los ordenadores comunicarse mediante lenguaje humano en lugar de hacerlo en lenguaje de máquina. Es decir, la mayoría de los ordenadores están programados para recibir e interpretar instrucciones de este tipo: S#DYR=48-56, LOC=AS NOT SW, EN=RALSTON". Únicamente personas preparadas son capaces de comunicarse eficazmente de esta forma. Pero si un ordenador programado para gestionar la documentación de una compañía petrolífera pudiese entender la orden dactilografiada (traducción de la anterior) "Encuéntrame toda la documentación relativa a las perforaciones de los pozos de Arabia Saudita entre 1948 y 1956, pero únicamente la de los pozos en que trabajó Ralston, no los de la zona surocciodental del país", muchas personas podrían utilizarlo.
1.3 Los fines de la IA
Las primeras
investigaciones acerca de la inteligencia artificial estaban principalmente dirigidas al hallazgo de una técnica universal para la solución de problemas. Este intento a gran escala ha sido abandonado y las investigaciones actuales están dirigidas al diseño de numerosos programas para ordenadores capaces de imitar los procesos de toma de decisiones de expertos, como médicos, químicos, basados en los conocimientos de especialistas en cada materia, son ahora utilizados para diagnosticar enfermedades, identificar moléculas químicas, localizar yacimientos de minerales e incluso diseñar sistemas de fabricación. Investigaciones acerca de la percepción han sido aplicadas a los robots y se han diseñado algunos capaces de "ver". La meta final consiste en crear un sistema capaz de reproducir todas las facetas de la inteligencia humana.
2. HISTORIA Y EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL
La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de
neurona del cerebro humano y animal. Estas neuronas nerviosas abstractas proporcionaron una representación simbólica de la actividad cerebral.
Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que se llamó "
cibernética"; de aquí nacería, sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora
ciencia, tomaron como base la neurona formalizada de McCulloch y postulaban que:
"El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro".
Pero si consideramos la enorme complejidad del mismo esto es ya prácticamente imposible, ni que mencionar que el
hardware de la época ni el software estaban a la altura para realizar semejantes proyectos.
Se comenzó a considerar el
pensamiento humano como una coordinación de tareas simples relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo que ellos consideraban como los fundamentos de la solución inteligente de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas actividades simples.
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto
éxito, se llamó el Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el cual se asociaron esfuerzos para que se pudieran resolver una gama amplia de problemas, pero estas energías se diluyeron enseguida.
Fue en los años 60 cuando
Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas). Éste era un sistema en el que el usuario definía un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando, claro está, con microcosmos formalizados que representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error. En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el sistema experto.
El primer sistema experto fue el denominado
Dendral, un intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU).
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales como el
LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción.
Desarrollo Histórico (según Jackson, 1986)
1950-1965 Periodo "clásico"
· Gestación (McColluck y Pitts,
Shannon, Turing)
· Inicio - reunión de Darmouth College en 1956 (
Minsky, McCarthy)
· Redes neuronales,
robótica (Shakey)
· Búsqueda en un espacio de estados, Heurísticas,
LISP
· Solucionador general de problemas (
GPS) (Newell, Simon)
· Juegos, prueba de teoremas
· Limitaciones de pura búsqueda, explosión combinatoria.
1965-1975 Periodo "romántico"
· Representación "general" del
conocimiento.
· Redes semánticas (Quillian)
· Prototipos (frames) (
Minsky)
· Perceptrón (
Minsky y Papert)
· Lógica (Kowalski)
· Mundo de bloques (
SHDRLU) (Winograd)
· Compresión de lenguaje, visión, robótica.
· Dificultades de representación "general", problemas de "juguete".
1975-Hoy Periodo "moderno". Inteligencia "especifica" vs. "general"
· Representación explícita del conocimiento específico del
dominio.
·
Sistemas expertos o basados en conocimiento.
· Regreso de
redes neuronales (Hopfield, Rumelhart, Hinton), algoritmos genéticos (Holland, Goldberg) Reconocimiento de voz (HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje. Aplicaciones "reales" (medicina, finanzas, ingeniería, exploración, etc.).
· Limitaciones: conocimiento "superficial"
Desarrollo Histórico (según Russell y Norvig, 1995):
Gestación (1943-1956):
· McCullock y Pitts (1943)
· Hebb (1949)
·
Shannon (1950)
· Turing (1953)
·
Minsky y Edmonds (1951)
· Darmouth College (1956)
·
McCarthy, Newell y Simon, « The Logic Theorist »
Entusiasmo y grandes expectativas (1952-1969):
· Samuel - checkers (1952)
·
McCarthy (1958): LISP: time sharing, Programs with common sense.
·
Minsky y McCarthy en MIT moldearon mucho del área.
·
Minsky, Evans, Student, Waltz, Winston, Winograd, etc.
· Trabajo en RN: Hebb, Widrow, RosenblattDosis de realidad (1966-1974):
· Simon predecía que en 10 años se tendría una máquina inteligente.
· Predicciones similares en traducción automática y ajedrez.
· Teoría de NP- completness.
· Experimentos en machine evolution (ahora algoritmos genéticos; estaban bien fundados pero no produjeron nada.) (Friedberg, 1958)
·
Minsky y Papert Perceptrons (1969) (aunque irónicamente el mismo año se descubrió backpropagation (Bryson y Ho))
Sistemas basados en conocimiento (1969-1979):
·
Dendral, Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (no hay sintáxis), frames, Prolog, Planner
IA como
industria (1980-1988):
· R1/XCON, proyecto de la quinta generación, shells y máquinas de LISP.
Regreso de
redes neuronales (1986-presente):
· Hopfield, Rumelhart y Hinton y descenso de los SE
Eventos recientes (1987-presente):
· Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez y estabilidad) ej., reconocimiento de voz (HMM), incertidumbre (Bayes), planeación (Tweak), robótica, aprendizaje (PAC), etc.
3. CARACTERÍSTICAS DE LA INTELIGENCIA ARTIFICIAL
1. Una característica fundamental que distingue a los
métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
2. El
comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
3. El razonamiento basado en
el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la
resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica, usada principalmente en el campo industrial; comprensión de lenguajes y traducción; visión en máquinas que distinguen formas y que se usan en líneas de ensamblaje; reconocimiento de palabras y aprendizaje de máquinas; sistemas computacionales expertos.
Los
sistemas expertos, que reproducen el comportamiento humanoen un estrecho ámbito del conocimiento, son programas tan variados como los que diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos sismológicos en exploración geológica y los que configuran complejos equipos de alta tecnología.
Tales tareas reducen
costos, reducen riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto, y mejoran el control de calidad sobre todo en el ámbito comercial.