INTRODUCCIÓN
Una de las grandes razones por la cuales se realiza el estudio de la IA es el poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.
La Inteligencia Artificial es una combinación de informática, robótica, psicología, lógica matemática entre otros, con el único fin de crear máquinas que puedan simular un comportamiento inteligente es decir que puedan “pensar”.
MARCO TEÓRICO
Muchas de las actividades mentales humanas, tales como escribir programas de cómputo, demostrar teoremas, razonar con sentido común y conducir un vehículo requieren de inteligencia. En el transcurso de varias décadas se han logrado diseñar programas que pueden realizar tareas como esas.
Existen programas que pueden diagnosticar enfermedades, resolver ecuaciones diferenciales en forma simbólica, analizar circuitos electrónicos, entender en forma limitada frases habladas y escritas o escribir programas de cómputo cumpliendo especificaciones. Se puede decir entonces que tales sistemas posen cierto grado de Inteligencia Artificial; pero ¿Qué es la Inteligencia Artificial? ¿Cuándo aparece?
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?
“La Inteligencia Artificial (IA) es la rama de las Ciencias de la Computación que se ocupa de construir sistemas que permitan exhibir un comportamiento cada vez más inteligente, que observado en un ser humano pueda ser calificado como inteligente”. (Feigenbaum, 1989?)
Romero, J. et al., (2007) menciona que “la Inteligencia Artificial es la rama de la ciencia que se encarga del estudio de la inteligencia en elementos artificiales y, desde el punto de vista de la ingeniería, propone la creación de elementos que posean un comportamiento inteligente. Dicho de otra forma, la Inteligencia Artificial pretende construir sistemas y máquinas que presenten un comportamiento que si fuera llevado a cabo por una persona, se diría que es inteligente”.
Rusell, S. y Norvig, P. (2004) hacen alusión a que la Inteligencia Artificial se basa en cuatro enfoques, los cuales se muestran a continuación:

Las definiciones mostradas están asociadas a dos características primordiales: el razonamiento y la conducta.
Entonces, podemos decir que el razonamiento estudia las facultades mentales mediante el uso de modelos computacionales que permitan razonar y actuar, logrando de esta forma la automatización de actividades cotidianas, mientras que la conducta hace alusión a la creación de máquinas con capacidad de realizar funciones o tareas realizadas por las personas.
ORIGEN DE LA INTELIGENCIA ARTIFICIAL
Romero, J. et al., (2007) considera que el origen de la Inteligencia Artificial se remonta a los intentos del hombre desde la antigüedad por incrementar sus potencialidades físicas e intelectuales, creando artefactos con automatismos y simulando la forma y las habilidades de los seres humanos. También cabe destacar a varios de los padres indiscutibles de la ciencia de la computación, como son Turing, Wiener y Von Neumann, pero si bien el origen inmediato del concepto y de los criterios de desarrollo de la Inteligencia Artificial se debe a Alan Turing, el apelativo “Inteligencia Artificial” se debe a John McCarthy. McCarthy era uno de los integrantes del “Grupo de Dartmouth” que se reunió en 1956 con fondos de la Fundación Rockefeller para discutir la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados, sino operaciones “inteligentes”.
LA PRUEBA DE TURIG
En 1950 Alan Turig propuso una prueba para determinar si un computador tiene IA, esta consiste en que una persona le realice una serie de preguntas a un computador y que este responda de forma que logre confundir a la persona haciendo que piense que está hablando con otra persona. Para esto el computador debe poseer algunas capacidades como:
- Lenguaje entendible es decir que pueda comunicarse en cualquier idioma.
- Representación del conocimiento, que pueda almacenar como se siente y lo que conoce.
- Racionamiento automático es decir que pueda tomar la información que ya conoce y plantear una respuesta y generar una conclusión
- Aprendizaje automático, que pueda adquirir nuevos conocimientos.
También existe la prueba global de Turing esta es más ambiciosa ya que añade la robótica para que el hardware que este simulando IA pueda mover objetos y para esto también necesita visión computacional ya que para poder mover los objetos este debe percibirlos.
PENSAR COMO HUMANO
Para que un sistema logre pensar como humano es necesario conocer cómo piensan los humanos, para esto se debe contar con mecanismos que brinden herramientas para determinar el funcionamiento de la mente humana. Esto se puede determinar con introspección y experimentos psicológicos, una vez que se cuente con la teoría de cómo funciona la mente se podrá replicar en un software (Russell, S., y Norvig, P. 2008).
PENSAMIENTO RACIONAL
Tiene su base en la lógica, el filósofo griego Aristóteles fue uno de los primeros en codificar la manera de pensar creando leyes de pensamiento, las mismas que gobiernan la forma de operar la mente y su estudio creo el campo llamado lógica.
Según Eglis García, 2009 “El razonamiento trata de emplear esas reglas y conocimientos para alcanzar conclusiones aproximadas o definitivas”.
ACTUAR DE FORMA RACIONAL
Según las leyes del pensamiento, todo el énfasis se pone en hacer inferencias correctas. La obtención de estas inferencias correctas puede, a veces, formar parte de lo que se considera un agente racional, ya que una manera racional de actuar es llegar a la conclusión lógica de que si una acción dada permite alcanzar un objetivo, hay que llevar a cabo dicha acción. Sin embargo, el efectuar una inferencia correcta no depende siempre de la racionalidad, ya que existen situaciones para las que no hay nada correcto que hacer y en las que hay que tomar una decisión. Existen también formas de actuar racionalmente que no implican realizar inferencias. Por ejemplo, el retirar la mano de una estufa caliente es un acto reflejo mucho más eficiente que una respuesta lenta llevada a cabo tras una deliberación cuidadosa (Russell, S., y Norvig, P. 2008) (Llata JR,. et all 2008?)
FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL
FILOSOFÍA (desde el año 420 a. C. hasta el presente)
MATEMÁTICAS (APROXIMADAMENTE DESDE EL AÑO 800 AL PRESENTE)
Los filósofos delimitaron las ideas más importantes de IA, pero para esto es necesario enfocarse en tres áreas fundamentales, como lo son: la lógica, computación y probabilidad.
El desarrollo matemático de la lógica comenzó con George Boole, (1815-1865), pero años más tarde, en 1978 Gottlob Fred extendió la lógica de Boole y creo la lógica de primer orden. Boole, entre otros, presento algoritmos para llevar a cabo deducciones lógicas, pero existen algunas funciones de los números enteros que no se pueden representar con algoritmos, es decir que no se pueden calcular. Años más tarde Gerolamo Cardano (1501-1576) fue el primero en proponer la idea de la probabilidad, presentándola con ejemplos de juegos de apuesta. (Russell, S. y Norvig, P. 2004)
ECONOMÍA (DESDE EL AÑO 1776 HASTA EL PRESENTE)
La economía comenzó en 1776 con el filósofo escoces Adam Smith. Él utilizo la idea de que las economías pueden concebirse como un conjunto de agentes individuales que intentan maximizar su propio estado de bienestar económico, pero esta, junto con otras teorías proporciona un marco completo para la toma de decisiones. (Russell, S. y Norvig, P. 2004)
NEUROCIENCIA (DESDE EL AÑO 1861 HASTA EL PRESENTE)
La Neurociencia es el estudio del sistema neurológico, y en especial del cerebro, la base de la conciencia. En la actualidad se dispone de información sobre la relación existente entre las áreas del cerebro y las partes del cuerpo humano que controlan; pero aún queda un largo camino para llegar a comprender como funcionan todos estos procesos cognitivos. Los cerebros y computadores digitales realizan tareas bastante diferentes y tienen propiedades distintas, pero incluso sabiendo que un computador es un millón de veces más rápido en cuanto a su velocidad de intercambio, el cerebro termina siendo 100.000 veces más rápido en lo que hace. (Russell, S. y Norvig, P. 2004)
PSICOLOGÍA (DESDE EL AÑO 1879 HASTA EL PRESENTE)
La conceptualización del cerebro como un dispositivo de procesamiento de información es la característica principal de la psicología cognitiva que se remonta a las obras de William James (1842-1910). Años más tarde Craik (1943) establece tres elementos clave que hay que tener en cuenta para diseñar un agente basado en conocimiento: 1 el estímulo deberá ser traducido a una representación interna, 2 esta representación interna se debe manipular mediante procesos cognitivos para así generar nuevas representaciones internas, y 3 estas, a su vez, se traducirán de nuevo en acciones. (Russell, S. y Norvig, P. 2004)
INGENIERÍA COMPUTACIONAL (DESDE EL AÑO 1940 HASTA EL PRESENTE)
Para que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos cosas: inteligencia y artefacto, en este caso el computador. El equipo de Alan Turing construyó, en 1940 el primer computador operacional de carácter electromecánico con el propósito de descifrar mensajes alemanes. Por esto, la IA le debe mucho a la informática, ya que esta ha proporcionado los sistemas operativos, lenguajes de programación y herramientas para escribir programas modernos; sin embargo la IA ha generado numerosas ideas que han beneficiado a la informática, como el tiempo compartido, interpretes imperativos entre otros. (Russell, S. y Norvig, P. 2004)
TEORÍA DE CONTROL Y CIBERNÉTICA (DESDE EL AÑO 1948 HASTA EL PRESENTE)
La figura central de la teoría autónoma fue Norbert Wiener (1894-1964) quien trabajo en sistemas de control biológicos y mecanismos y en sus vínculos con la cognición; tiene como objetivo el diseño de sistemas que maximizan una función objetivo en el tiempo; lo que se asemeja a la IA, un diseño de sistemas que se comportan de forma óptima. (Russell, S. y Norvig, P. 2004)
LINGÜÍSTICA (DESDE EL AÑO 1957 HASTA EL PRESENTE)
La lingüística trata de ver y conocer como está relacionado el lenguaje con el pensamiento. La lingüística y la IA nacieron al mismo tiempo, madurando juntas, sobre un campo hibrido llamado lingüística computacional o procesamiento de lenguaje natural. Con la representación del conocimiento se logra un estudio acerca de cómo representar el conocimiento de forma que el computador pueda razonar a partir de dicha representación. (Russell, S. y Norvig, P. 2004)
HISTORIA DE LA INTELIGENCIA ARTIFICIAL
La inteligencia artificial surge definitivamente a partir de algunos trabajos publicados en la década de 1940 que no tuvieron gran repercusión, pero a partir de el influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información.
Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.
Él termino "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar"
GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)
Warren McCulloch y Walter Pitts (1943) han sido reconocidos como los autores del primer trabajo de IA. Partieron de tres fuentes: conocimientos sobre la fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica preposicional de Russell y Whitehead y la teoría de la computación de Turing. Es por esto que se consideran los eventos más importantes en el origen de la IA (Russell, S., y Norvig, P. 2008).
NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956)
En 1956 se propone a la Inteligencia Artificial como una disciplina que buscaba reproducir comportamiento inteligente con la ayuda de una máquina. Esto se realizó en un Congreso sobre Informática Teórica en EEUU, en el que se definió el concepto de Inteligencia Artificial, como una nueva rama de la informática con entidad propia (Pino, R et all 2010).
ENTUSIASMO INICIAL, GRANDES ESPERANZAS (1952-1969)
Los primeros años de la IA estuvieron llenos de éxitos (aunque con ciertas limitaciones). Teniendo en cuenta lo primitivo de los computadores y las herramientas de programación de aquella época, y el hecho de que sólo unos pocos años antes, a los computadores se les consideraba como artefactos que podían realizar trabajos aritméticos y nada más, resultó sorprendente que un computador hiciese algo remotamente inteligente (Russell, S., y Norvig, P. 2008).
UNA DOSIS DE REALIDAD (1966-1973)
Desde el principio, los investigadores de IA hicieron públicas, sin timidez, predicciones sobre el éxito que les esperaba. Con frecuencia, se cita el siguiente comentario realizado por Herbert Simón en 1957:
“Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de re sumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de pen sar, aprender y crear. Además, su aptitud para hacer lo anterior aumentará rápidamente hasta que (en un futuro previsible) la magnitud de problemas que serán capaces de re solver irá a la par que la capacidad de la mente humana para hacer lo mismo.”
El primer tipo de problemas surgió porque la mayoría de los primeros programas contaban con poco o ningún conocimiento de la materia objeto de estudio; obtenían resultados gracias a sencillas manipulaciones sintácticas.
La realidad es que para traducir es necesario contar con un conocimiento general sobre el tema, que permita resolver ambigüedades y así, precisar el contenido de una oración. La famosa retraducción del ruso al inglés de la frase «el espíritu es fuerte pero la carne es débil», cuyo resultado fue «el vodka es bueno pero la carne está podrida» es un buen ejemplo del tipo de dificultades que surgieron.
El segundo problema fue que muchos de los problemas que se estaban intentando resolver mediante la IA eran intratables. La mayoría de los primeros programas de IA resolvían problemas experimentando con diversos pasos hasta que se llegara a encontrar una solución.
El tercer obstáculo se derivó de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta inteligente. Por ejemplo, en 1969, en el libro de Minsky y Papert, Perceptrons, se demostró que si bien era posible lograr que los perceptrones (una red neuronal simple) aprendieran cualquier cosa que pudiesen re presentar, su capacidad de representación era muy limitada (Russell, S., y Norvig, P. 2008) (Velasco, J. 2007).
LA IA SE CONVIERTE EN CIENCIA (desde 1980 hasta el presente)
En 1982 por McDermott se creó el primer sistema experto comercial llamado R1 el cual utilizaba la elaboración de pedidos informáticos, 4 años más tarde R1 representó un ahorro de aproximadamente 40 millones de dólares al año y en 1988 la inteligencia artificial distribuía mas de 40 sistemas expertos. En la pelea de Japón y EEUU, por quién investigaba y desarrollaba más en la IA, ésta pertenecía a un proyecto que involucraba diseño de chips y la relación del ser humano con las máquinas (García, A .2012)
CONCLUSIONES
A pesar de ser una ciencia nueva, la Inteligencia Artificial ha avanzado mucho, sobre todo en base a su historia y a su relación con muchas ciencias que, aunque diferentes en forma, son afines en fondo y es necesario recalcar que la Inteligencia Artificial ayuda y mejora a muchas otras ramas de conocimiento haciendo que estos se automaticen y sean mas seguros.
CONCLUSIONES
A pesar de ser una ciencia nueva, la Inteligencia Artificial ha avanzado mucho, sobre todo en base a su historia y a su relación con muchas ciencias que, aunque diferentes en forma, son afines en fondo y es necesario recalcar que la Inteligencia Artificial ayuda y mejora a muchas otras ramas de conocimiento haciendo que estos se automaticen y sean mas seguros.
BIBLIOGRAFÍA
Feigenbaum, E. The handbook of Artificial Intelligence. Vol. 4. USA.
Harmon, P. y King, D. 1985. Expert systems: artificial intelligence in business. Nueva York, USA. p 4.
Romero, J; Dafonte, C; Gómez, A; Penousal, F. 2007. Inteligencia Artificial y Computación Avanzada. Santiago de Compostela, ESP. Colección Informática. N° 13. p 10 – 12. ISBN 84-934497-0-9
Russell, S. y Norvig, P. 2004. Inteligencia Artificial un enfoque moderno. 2 ed. Madrid, ESP. Pearson Educación. p 2. ISBN 978-84-205-4003-0
García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 23 de Oct. 2014. Disponible en http://books.google.com.ec/books.
Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 27 de Oct. 2014. Disponible en http://books.google.com.ec/book.
No hay comentarios.:
Publicar un comentario