INTRODUCCIÓN
Luego de
conocer los conceptos básicos de la inteligencia artificial es importante
conocer los hechos históricos que han sido de gran importancia para el
desarrollo de la inteligencia artificial como ciencia. En el siguiente informe
se detallaran los sucesos más relevantes de la historia además de la evolución
de la inteligencia artificial hasta llegar a ser la ciencia que es hoy en día.
GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)
Warren
McCulloch y Walter Pitts (1943) han sido reconocidos como los autores del
primer trabajo de IA. Partieron de tres fuentes:
- Fisiología básica y funcionamiento de las neuronas en el cerebro.
- El análisis formal de la lógica preposicional.
- La teoría de la computación de Turing.
Donald
Hebb (1949) propuso y demostró una regla de actualización para modificar las intensidades
de las conexiones entre neuronas. Su regla, es llamada aprendizaje Hebbiano o
de Hebb, y esta sigue vigente actualmente.
En el
año 1951 dos estudiantes Marvin Minsky y Dean Edmonds, construyeron el primer
computador a partir de una red neuronal al cual llamaron SNARC, este computador
estaba constituido por 3000 válvulas de vacío y un sistema de piloto automático
obtenido de un avión bombardero B-24 para poder simular una red de 40 neuronas.
NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956)
McCarthy
una vez que se graduó se trasladó al Dartmouth College, que se erigiría en el
lugar del nacimiento oficial de este campo, convenció a Minsky, Claude Shannon
y Nathaniel Rochester a que le ayudaran a que los investigadores americanos se
interesaran en la teoría de autómatas, redes neuronales y el estudio de la
inteligencia.
Luego
organizaron un taller con una duración de dos meses en Darmouth en el verano de
1956 al cual asistieron 10 personas dentro de las cuales se encontraban Trenchard
More de Princeton, Arthur Samuel de IBM, y Ray Solomonoff y Oliver Selfridge
del MIT.
ENTUSIASMO INICIAL, GRANDES ESPERANZAS (1952-1969)
Los
primeros años de la IA estuvieron llenos de éxitos teniendo en cuenta que los
primeros computadores eran demasiado primitivos y las herramientas de
programación estaban muy limitadas pero
fue muy sorprendente que un computador hiciera cosas remotamente inteligentes
en aquella época.
Al
temprano éxito de Newell y Simon siguio el del sistema de resolución general de
problemas, o SRGP, este posiblemente fue el primer programa que incorporo el
enfoque de “pensar como un ser humano”. El éxito del SRGP y de los programas
que le siguieron, llevaron a Newell y Simon (1976) a formular la famosa
hipótesis del sistema de símbolos físicos, que afirma que “un sistema de símbolos
físicos tiene los medios suficientes y necesarios para generar una acción
inteligente”.
UNA DOSIS DE REALIDAD (1966-1973)
Al principio, los investigadores de IA hicieron
públicas predicciones sobre el éxito que les esperaba, uno de ellos fue Simon quien
hizo predicciones sobre como en diez años un computador llegaría a ser campeón
de ajedrez, y que se podría demostrar un importante teorema matemático con una máquina.
Estas predicciones se cumplirían (al menos en parte) dentro de los siguientes
40 años y no en diez como afirmaba.
En
esta etapa surgieron algunos problemas, uno de ellos fue porque los primeros
programas contaban con escaso conocimiento del objeto de estudio, solo podían
obtener resultados gracias a sencillas manipulaciones sintácticas.
SISTEMAS BASADOS EN EL CONOCIMIENTO (1969-1979)
LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980 HASTA
EL PRESENTE)
El
primer sistema experto comercial que tuvo éxito, R1, inicio su actividad en
Digital Equipment Corporation (McDermott, 1982). El programa se utilizaba en la
elaboración de pedidos de nuevos sistemas informáticos. En 1986 representaba
para la compañía un ahorro estimado de 40 millones de dólares al año. En 1988,
el grupo de Inteligencia Artificial de DEC había distribuido ya 40 sistemas
expertos, y había más en camino.
REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL
PRESENTE)
Psicólogos
como David Rumelhart y Geoff Hinton continuaron con el estudio de modelos de
memoria basados en redes neuronales, el impulso más fuerte se produjo a
mediados de la década de los 80, cuando por lo menos cuatro grupos distintos
reinventaron el algoritmo de aprendizaje de retroalimentación, mencionado por
vez primera en 1969 por Biyson y Ho, este algoritmo se aplicó a diversos
problemas de aprendizaje en los campos de la informática y la psicología.
IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL
PRESENTE)
La IA
se fundó en parte en el marco de una rebelión en contra de las limitaciones de los
campos existentes como la teoría de control o la estadística, y ahora abarca
estos campos. Tal y como indica David McAllester (1998). Se puede decir que en
la actualidad la IA ya forma parte del ámbito de los métodos científicos. El
uso de Internet y el compartir repositorios de datos de prueba y código, ha
hecho posible realizar diversos experimentos.
EMERGENCIA DE LOS SISTEMAS INTELIGENTES (DESDE 1995
HASTA EL PRESENTE)
Uno de
los medios más importantes para los agentes inteligentes es Internet Los
sistemas de IA han llegado a ser comunes
en aplicaciones desarrolladas para la Web que el sufijo “-bot” se ha introducido en el
lenguaje común. Además, tecnologías de IA son la base de muchas herramientas
para Internet, como por ejemplo motores de búsqueda, sistemas de recomendación,
y los sistemas para la construcción de portales Web.
EL ESTADO DEL ARTE
Hoy en
día la IA se ha convertido en una ciencia para dar solución a varios problemas
y actividades que realiza el ser humano, a continuación se detallaran algunas
de ellas:
Planificación de autómatas: el
programa de la NASA Agente Remoto se convirtió en el primer programa de planificación
autónoma a bordo que controlaba la planificación de las operaciones de una nave
espacial desde abordo (Jonsson et al., 2000). El Agente Remoto generaba planes
a partir de objetivos generales especificados desde tierra, y monitorizaba las
operaciones de la nave espacial según se ejecutaban los planes (detección, diagnóstico y recuperación de problemas según ocurrían).
Juegos: Deep Blue de IBM fue el
primer sistema que derrotó a un campeón mundial en una partida de ajedrez
cuando superó a Garry Kasparov en una partida de exhibición (Goodman y Keene,
1997). Kasparov dijo que había percibido un «nuevo tipo de inteligencia» al
otro lado del tablero. La revista Newsweek describió la partida como “La
partida final”. El valor de las acciones de IBM se incrementó en 18 billones de
dólares.
Control autónomo: El
sistema de visión por computador ALVINN fue entrenado para dirigir un coche de
forma que siguiese una línea. Se instaló en una furgoneta controlada por
computador en el NavLab de UCM y se utilizó para dirigir al vehículo por
Estados Unidos. Durante 2.850 millas controló la dirección del vehículo en el
98 por ciento del trayecto. Una persona lo sustituyó en el dos por ciento
restante, principalmente en vías de salida. El NavLab posee videocámaras que
transmiten imágenes de la carretera a Alvinn, que posteriormente calcula la
mejor dirección a seguir, basándose en las experiencias acumuladas en los
viajes de entrenamiento.
Diagnosis: Los programas de diagnóstico
médico basados en el análisis probabilista han llegado a alcanzar niveles similares
a los de médicos expertos en algunas áreas de la medicina. El creador del
programa le sugirió que le preguntase al computador como había generado el
diagnostico. La máquina indico los factores más importantes en los que había
basado su decisión y explico la ligera interacción existente entre varios de
los síntomas en este caso.
Planificación logística: Las técnicas
de planificación de IA permitieron que se generara un plan en cuestión de horas
que podría haber llevado semanas con otros métodos. La agencia DARPA (Defense
Advanced Research Project Agency) afirmo que esta aplicación por si sola había más
que amortizado los 30 años de inversión de DARPA en IA.
Robótica: Muchos cirujanos utilizan hoy
en día asistentes robot en operaciones de microcirugía. HipNav (DiGioia etal., 1996)
es un sistema que utiliza técnicas de visión por computador para crear un
modelo tridimensional de la anatomía interna del paciente y después utiliza un
control robotizado para guiar el implante de prótesis de cadera.
Procesamiento de lenguaje y resolución de problemas:
PROVER B (Littman etal., 1999) es un
programa informático que resuelve crucigramas mejor que la mayoría de los
humanos, utilizando restricciones en programas de relleno de palabras, una gran
base de datos de crucigramas, y varias fuentes de información como diccionarios
y bases de datos online, que incluyen la lista de películas y los actores que
intervienen en ellas.
CONCLUSIÓN
La
inteligencia artificial a lo largo del tiempo ha pasado por diversas etapas y
personajes que para bien contribuyeron con la formación de la misma, hasta
llegar a ser tomada en cuenta como una ciencia. Además la IA ha contribuido
actualmente y seguirá haciéndolo para así dar solución a los problemas
cotidianos que para nosotros se nos hacían difíciles o demandaban demasiado tiempo.
BIBLIOGRAFÍA
Alvarez, L 1994. Fundamentos de la Inteligencia Artificial. Murcia 2ª ed
Barber, F. 2007. 10 años de “Inteligencia Artificial” Valencia, ES. Revista Iberoamericana de I.A. Vol 11.
Rusell, S; Norvig, P. 2004. Inteligencia
Artificial un Enfoque Moderno, Madrid, 2ed.
Romero, J; Dafonte, C; Gómez, A; Penousal, J. 2007. Inteligencia Artificial y Computación Avanzada. ES. Colección Informática nº 13

No hay comentarios:
Publicar un comentario