jueves, 8 de noviembre de 2012

IMAGENES DE INTELIGENCIA ARTIFICIAL





REDES NEURONALES ARTIFICIALES

Conseguir, diseñar y construir máquinas capaces de realizar procesos con cierta inteligencia ha sido uno de los principales objetivos y preocupaciones de los científicos a lo largo de la historia. Sin embargo a pesar de disponer de herramientas y de lenguajes de programación diseñados para el desrrollo de máquinas inteligentes, existe un problema de fondo que limita los resultados: estas máquinas se implementan sobre ordenadores basados en la filosofía de Von Neumann, y se apoyan en una descripción secuencial del proceso de tratamiento de la información.
Las primeras explicaciones teóricas sobre el cerebro y el pensamiento fuerón dadas por algunos filósofos griegos, como Platón y Aristóteles, quienes fuerón apoyados despúes por Descartes y filósofos empiristas.

SISTEMAS INTELIGENTES Y TIPOS

--Necesidad de utilizar estrategias presentes en la naturaleza para resolver (cierto tipo de) problemas complejos.
--Millones de años de evolución han llevado a que los sistemas biológicos posean características y mecanismos de procesamiento que los diferencian radicalmente de los computadores tradicionales (arquitectura Von Neumann)
--Los Sistemas Inteligentes permiten implementar algunos características y mecanismos de procesamiento de los sistemas biológicos. Entre los sistemas inteligentes destacan las Redes Neuronales (Redes de Neuronas Artificiales), la Lógica Difusa y la Computación Evolutiva

LA VIDA ARTIFICIAL

La vida artificial es el estudio de la vida y de los sistemas artificiales que exhiben propiedades similares a los seres vivos, a través de modelos de simulación. El científico Christopher Langton fue el primero en utilizar el término a fines de la década de 1980 cuando se celebró la "Primera Conferencia Internacional de la Síntesis y Simulación de Sistemas Vivientes" (también conocido como Vida Artificial I) en Laboratorio Nacional de Los Álamos en 1987.
El área de vida artificial es un punto de encuentro para gente de otras áreas más tradicionales como lingüística, física, matemáticas, filosofía, psicología, ciencias de la computación, biología, antropología y sociología en las que sería inusual que se discutieran enfoques teóricos y computacionales. Como área, tiene una historia controvertida; John Maynard Smith criticó ciertos trabajos de vida artificial en 1995 calificándolos de "ciencia sin hechos", y generalmente no ha recibido mucha atención de parte de biólogos. Sin embargo, la reciente publicación de artículos sobre vida artificial en revistas de amplia difusión,1 como Science y Nature son evidencia de que las técnicas de vida artificial son cada vez más aceptadas por los científicos, al menos como un método de estudio de la evolución.

TEST DE TURING

El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente

FUTURO DE LA INTELIGENCIA ARTIFICIAL

Inteligencia Artificial (IA) tiene tanta antigüedad como la informática y ha generado ideas, técnicas y aplicaciones que han permitido resolver problemas difíciles. Lejos de quedarse ahí, el futuro de esta tecnología pasa por nuevos avances como el desarrollo de software que nos haga la vida más fácil, ayudándonos a tomar decisiones en entornos complejos o permitiéndonos resolver problemas difíciles.
En este contexto, los investigadores cada vez hacen más énfasis en la creación de sistemas capaces de aprender y mostrar comportamientos inteligentes sin el corsé de intentar replicar un modelo humano. Ésta al menos una de las principales conclusiones del Cuarto Seminario Internacional sobre Nuevos Temas en Inteligencia Artificial, organizado recientemente por el grupo SCALAB del departamento de Informática de la Universidad Carlos III de Madrid(UC3M).

PRINCIPALES RAMAS DE LA INTELIGENCIA ARTIFICIAL

Sistemas Expertos (Sistemas basados en Conocimiento): Programas computacionales que resuelven problemas que normalmente requieren del conocimiento de un especialista o experto humano. Es un sistema capaz de tomar decisiones inteligentes interpretando grandes cantidades de datos sobre un dominio específico de problemas.
Aprendizaje y Razonamiento Automático: Máquinas capaces de planificar, tomar decisiones, plantear y evaluar estrategias, aprender a partir de la experiencia, autoreprogramables, etc.
Robótica: Artefactos autónomos capaces de llevar a cabo diversas tareas mecánicas de manera flexible e inteligente, cumpliendo con un objetivo y ajustándose al entorno cambiante.
Procesamiento de Lenguaje Natural:Sistemas capaces de reconocer, procesar y emular el lenguaje humano.
Visión por Computadora (Reconocimiento de patrones):Reconoce y procesa señales, caracteres, patrones, objetos, escenas.