INTELIGENCIA ARTIFICIAL
jueves, 8 de noviembre de 2012
REDES NEURONALES ARTIFICIALES
Conseguir, diseñar y construir máquinas capaces de
realizar procesos con cierta inteligencia ha sido uno de los principales
objetivos y preocupaciones de los científicos a lo largo de la historia. Sin
embargo a pesar de disponer de herramientas y de lenguajes de programación
diseñados para el desrrollo de máquinas inteligentes, existe un problema de
fondo que limita los resultados: estas máquinas se implementan sobre
ordenadores basados en la filosofía de Von Neumann, y se apoyan en una
descripción secuencial del proceso de tratamiento de la información.
Las primeras explicaciones teóricas sobre el cerebro y
el pensamiento fuerón dadas por algunos filósofos griegos, como Platón y
Aristóteles, quienes fuerón apoyados despúes por Descartes y filósofos empiristas.
SISTEMAS INTELIGENTES Y TIPOS
--Necesidad de utilizar estrategias presentes en la
naturaleza para resolver (cierto tipo de) problemas complejos.
--Millones de años de evolución han llevado a que los
sistemas biológicos posean características y mecanismos de procesamiento
que los diferencian radicalmente de los computadores
tradicionales (arquitectura Von Neumann)
--Los Sistemas Inteligentes permiten implementar
algunos características y mecanismos de procesamiento de los sistemas
biológicos. Entre los sistemas inteligentes destacan las Redes Neuronales
(Redes de Neuronas Artificiales), la Lógica Difusa y la Computación
Evolutiva
LA VIDA ARTIFICIAL
La vida artificial es el estudio de la vida y de los
sistemas artificiales que exhiben propiedades similares a los seres vivos, a
través de modelos de simulación. El científico Christopher Langton fue el
primero en utilizar el término a fines de la década de 1980 cuando se celebró
la "Primera Conferencia Internacional de la Síntesis y Simulación de
Sistemas Vivientes" (también conocido como Vida Artificial I) en
Laboratorio Nacional de Los Álamos en 1987.
El área de vida artificial es un punto de encuentro
para gente de otras áreas más tradicionales como lingüística, física,
matemáticas, filosofía, psicología, ciencias de la computación, biología, antropología
y sociología en las que sería inusual que se discutieran enfoques teóricos y
computacionales. Como área, tiene una historia controvertida; John Maynard
Smith criticó ciertos trabajos de vida artificial en 1995 calificándolos de
"ciencia sin hechos", y generalmente no ha recibido mucha atención de
parte de biólogos. Sin embargo, la reciente publicación de artículos sobre vida
artificial en revistas de amplia difusión,1 como Science y Nature son evidencia
de que las técnicas de vida artificial son cada vez más aceptadas por los
científicos, al menos como un método de estudio de la evolución.
TEST DE TURING
El Test
de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para
demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en
un artículo (Computing machinery and intelligence) para la revista Mind, y
sigue siendo uno de los mejores métodos para los defensores de la Inteligencia
Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se
comporta en todos los aspectos como inteligente, entonces debe ser inteligente
FUTURO DE LA INTELIGENCIA ARTIFICIAL
Inteligencia Artificial (IA) tiene tanta antigüedad
como la informática y ha generado ideas, técnicas y aplicaciones que han
permitido resolver problemas difíciles. Lejos de quedarse ahí, el futuro de
esta tecnología pasa por nuevos avances como el desarrollo de software que nos
haga la vida más fácil, ayudándonos a tomar decisiones en entornos complejos o
permitiéndonos resolver problemas difíciles.
En este contexto, los investigadores cada vez hacen
más énfasis en la creación de sistemas capaces de aprender y mostrar
comportamientos inteligentes sin el corsé de intentar replicar un modelo
humano. Ésta al menos una de las principales conclusiones del Cuarto Seminario
Internacional sobre Nuevos Temas en Inteligencia Artificial, organizado recientemente
por el grupo SCALAB del departamento de Informática de la Universidad Carlos
III de Madrid(UC3M).
PRINCIPALES RAMAS DE LA INTELIGENCIA ARTIFICIAL
Sistemas Expertos (Sistemas basados en Conocimiento): Programas computacionales que resuelven problemas que normalmente requieren del
conocimiento de un especialista o experto humano. Es un sistema capaz de tomar
decisiones inteligentes interpretando grandes cantidades de datos sobre un
dominio específico de problemas.
Aprendizaje y Razonamiento Automático: Máquinas
capaces de planificar, tomar decisiones, plantear y evaluar estrategias,
aprender a partir de la experiencia, autoreprogramables, etc.
Robótica: Artefactos autónomos capaces de llevar a
cabo diversas tareas mecánicas de manera flexible e inteligente, cumpliendo con
un objetivo y ajustándose al entorno cambiante.
Procesamiento de Lenguaje Natural:Sistemas capaces de
reconocer, procesar y emular el lenguaje humano.
Visión por Computadora (Reconocimiento de patrones):Reconoce y procesa señales, caracteres, patrones, objetos, escenas.
Suscribirse a:
Entradas (Atom)