El presente artículo contiene el estudio y análisis de un agente inteligente mediante un bastón integrado para personas no videntes; al que hemos denominado BASTIN “bastón inteligente”; con el fin de brindar una propuesta que contribuya a las investigaciones y aportes similares aplicados en la inteligencia artificial mediante el campo de la medicina cognitiva. A través de dispositivos, herramientas, etc. que faciliten el diario vivir de las personas invidentes.
1. ESTUDIO Y ANÁLISIS DE LA INTELIGENCIA ARTIFICIAL EN UN AGENTE RACIONAL APLICADO A LA CIENCIA COGNITIVA BASTIN “Bastón Inteligente integrado para personas no videntes”. Susana Guasha msguasha@utpl.edu.ec Nina R. Caraguay nrcaraguay@utpl.edu.ec Juan C.Ordoñezjcordonez1@utpl.edu.ec
2. Análisis del BASTIN en la IA Estructura del agente Heurísticas Algoritmo implementado Base del conocimiento Tripletas RDF
4. DESCRIPCION DEL PROBLEMA BASTIN es un agente híbrido, basado en la utilidad. Donde la resolución del problema se mide en las acciones de los actuadores , frente al sonido, tacto, imagen, e interacción frente a una ruta medido en el coste del tiempo consumido al percibir y actuar; luego realiza el procesamiento multi-sensorial de alta semántica para los contenidos de la heurística representado en las tripletas RDF. Objetivo: Analizar la aplicabilidad de la inteligencia artificial en un agente racional con el fin de determinar su utilidad en las personas no videntes, y la implementación de heurísticas mediante el algoritmo LRTA* para la toma de decisiones en la percepción del entorno.
5. DESCRIPCION DEL PROBLEMA Con el fin de brindar una propuesta que contribuya al estudio de la Inteligencia Artificial, presentamos BASTIN “bastón inteligente” como propuesta de un agente inteligente para personas no videntes. Como medio de guía donde interactúan componentes, actuadores, sensores, y valores heurísticos para obtener la búsqueda basado en objetivos. El agente inteligente reduce la incertidumbre del usuario al proporcionar mayor seguridad a lo largo del trayecto, mediante actuadores que interactúan en tiempo real para determinar costes de rutas, bajo la percepción subjetiva de la imagen, evasión de obstáculos, aprendizaje de rutas y acciones frecuentes captada en diferentes entornos y representadas en RDF. Todo ello para el aprendizaje de rutas, tomas de decisiones de los actuadores previo a heurísticas implementadas en el algoritmo LRTA*.
6. AGENTE Agente = arquitectura + programa [Ec 1]: [Russell Stuart . 2004] p.51 En cada posible percepción, un agente BASTIN aprende acciones que maximiza su medida de rendimiento. Para la implementación consideramos el algoritmo LRTA*, donde se lleva una planificación al seleccionar el próximo estado y la ejecución al moverse a ese estado. Como funciona el agente: El BASTIN, aprende a partir de un entorno competitivo, en el contexto de utilizar sus recursos para resolver una tarea concreta, mediante actuadores y procedimientos de inferencia, racionalidad descritos en su base de conocimiento.
7. SENSORES DGPS sistema de posicionamiento geográfico distribuido. Sobre el equipo de procesamiento, para la percibir datos de entrada de posicionamiento (latitud, longitud) del nodo origen, desde donde aprendiendo las rutas . Sensor DGPS Sobre el equipo de procesamiento, para la percibir datos de entrada de posicionamiento (latitud, longitud) del nodo origen. Que son procesadas por el algoritmo para ir aprendiendo las rutas. Sensores digitales de imagen: Por elementos fotosensibles a la luz, que modifican la señal eléctrica según su intensidad de la luz. Su configuración es matricial para la imagen bidimensional. Mediante tecnología CMOS, responde al requerimiento de percibir solo contornos asociados a un patrón de grises.
8. SENSORES [fig.2] matriz de reconocimientos de patrones grises; como puntos alineados en una imagen binarizada. solo contornos asociados a un patrón de grises.
9. Como aprende el AGENTE MEDIANTE BASE DEL CONOCIMIENTO Mediante reglas lógicas, y tripletas de sujeto-predicado, objeto. A nivel simbólico: Interpretación secuencial de los percepciones; representamos a través de RDF, mediante los URI, evitando ambigüedades, en términos de propiedades simples y valores. Representadas en las tripletas, validadas mediante: http://www.w3.org/RDF/Validator
10. Como aprende el AGENTE: Seguridad: Guiado por mapa urbanístico registrado e interpretado desde el GPS, sensores, actuadores. Entorno: Obstáculos, texturas, mapa urbanístico, holofonía. Actuadores: Intensidad de las vibraciones sonoras que miden intensidad, distancia, resolución de patrones de grises para contornos de la imagen. Sensores: GPS, sensor de imagen, acústico. Propiedades: Reactivo (responde a cambios del ambiente). Orientado a objetivos y de aprendizaje (cambia su comportamiento en base a la experiencia). Fig.1 Heurísticas para la toma de decisiones basadas en el conocimiento, para utilizar una arquitectura híbrida.
12. MEDIDAS DE RENDIMIENTO: En base a las heurísticas empleadas al implementar el algoritmo LRTA*: Completitud: Todos los nodos visitados, son percibidos por los sensores, y resuelven su naturaleza por holofoníasy lectura de contornos asociados a patrones de grises. Óptimo: Al determinar rutas frecuentes, que convergen a rutas óptimas sobre varias exploraciones del espacio de búsqueda. Complejidad en tiempo: El algoritmo mejora la información de los estados que ya se han visitado con la información que se obtiene mientras se realiza la búsqueda. Complejidad en espacio: La mejora del tiempo tiene mayor relevancia si el agente recorre una heurística con menor valor asociado al espacio; en un conjunto de estados conectados cuyo costo heurístico estimado, es menor o igual al de todos sus estados vecinos.
13. ACTUADORES: Auriculares (Holofonía) Bastón (niveles de vibración) Naturaleza de movilidad del usuario. [figura 3] Gafas y auriculares con sensores. [figura 2] Grafo de visibilidad para encontrar el camino óptimo.
14. Gestión de comportamientos Cuando encuentran bordes asociados el sensor de imagen, capta contornos en base al HIS y no solo en RGB. HIS (tono, saturación e intensidad). HIS resulta apropiada para tener información independientemente de las condiciones de iluminación. A lo cual se agrega detección del movimiento que consiste en convertir de RGB a escala de grises, donde se aplica: Que corresponde al filtro de los contornos de la imagen, que serán el entorno que luego se transforma en vibraciones en el bastón del usuario. I = R+G+B GRAY = 0,299 . R + 0,587 . G + 0,114 . B.
15. Gestión de comportamientos La profundidad de campo A través de la segmentación para separar objetos de fondo. Se rige por el umbral, si supera o no al valor original cuando transforma la imagen a binaria en la profundidad de 3 a 8m, mas cerca los contornos se refractan y mas lejos pierden alcance.
17. RESOLUCION MEDIANTE BÚSQUEDA El algoritmo que más se ajusta a nuestro agente es el LRTA*, donde el coste para alcanzar el nodo g(n), y el coste para ir al nodo objetivo trazado en la ruta a seguir es: Función objetivo: Representado en la ruta mas óptima, obtenida de los costes del camino mas los obstáculos. Estado: Cualquier punto donde se encuentra el no vidente, tomado como punto origen, hasta el punto o nodo destino. Obtención de datos: Los sensores resuelven sonido, tacto, imagen, para comunicar la primera mejor ruta, medida en el coste del tiempo consumido al percibir y actuar en espacio-temporal para el procesamiento semántico en los contenidos representado en la ontología. f(n)= g(n)+h(n) H(n) Búsqueda local. h(n)
19. Implementación LRTA* El agente aprende la función heurística admisible, para estimar el costo del camino hacia el objetivo. Y dispone de h 0 en todos los nodos, para comenzar el proceso de aprendizaje. Inicia una búsqueda A*. Conoce el coste correspondiente al movimiento detectado desde el nodo captado en tiempo-on-line a sus nodos sucesores. -Expande n(i) que es el nodo origen, para generar sucesores S(n(i) obstáculos y/o rutas. Para el nodo objetivo h(n(i)), en base al coste de movimiento desde nodo origen n(i) al nodo objetivo n(j) Ec.2: Heurística para mejorar el rendimiento en la búsqueda heurística de tiempo real.
20.
21. La función heurística h(n) ruta visitada y h’(n) ruta actualizada, siempre que esta sea admisible. No así cuando es 0, el algoritmo se comportaría como una búsqueda de anchura, porque aun no hay coste del camino recorrido.
22. Complejidad espacio temporal de LRTA* es su almacenamiento en la tabla de valores heurísticos de todos los estados de la ruta inicial al estado objetivo. Dado en:Ec.2: Heurística para mejorar el rendimiento en la búsqueda heurística de tiempo real.
23. Implementación LRTA* Calculo de rutas: Con el menor coste, el sensor de GPS lee las coordenadas de latitud y longitud de este objetivo (ni,nj) y el coste del operador que permite pasar de un nodo a otro. Expansión del Árbol: Se expande por la admisibilidad en las heurísticas h’, para saber si se encontrará o no la solución. Limite de expansión: Por la búsqueda limitada, en la profundidad máxima de la ruta. El espacio del estado es corto, y necesita una respuesta rápida de la mejor acción para el próximo mejor nodo a evaluarse.
24. Implementación LRTA* Tiempo que tarda en recorrer de acuerdo a la fórmula: Almacenamiento de los costes bajo f(n)+g(n)+h(n), para obtener el coste del camino mínimo que pasa por f’(n)+g(n)+h’(n) que indica el próximo nodo a explorar. Proceso del peor al mejor: Cuando hay demasiados nodos captados por el exceso de variación de ruido en el entorno. El costo será O(rp). donde p es el factor de ramificación de variación de ruido El mejor caso: Cuando se cumple h’, es decir actualiza las mejores rutas.
25. Implementación LRTA* El algoritmo de aprendizaje en tiempo real (Learning Real-Time A*) es parte de los algoritmos de búsqueda heurística en tiempo real y se refiere a un método de búsqueda heurística de tiempo real que bajo ciertas condiciones, siempre encuentra una solución a un problema y converge a soluciones óptimas cuando lo resuelve repetidas veces. Fig.4 En cada iteración vuelve a evaluar el camino mediante heurística Fig.5 Coste de los tiempos
26. Implementación LRTA* Algoritmo en pseudocódigo S = Estado Si = Estado inicial. Sobj = estadoobjetivo. H(s) = heuristic aplicada a ese estado. Max = maximización de la función Min = minimización de la función. Succ(s) = sucesores de s->(S’) argMin = minimo valor de un dominio. s:= si. Si s=sobj, entonces detener con éxito. h(s):=max(h(s),min s’’succ(s)(c(s,s’’)+h(s’’))). s’:=argmins’’succ(s)(c(s,s’’)+h(s’’)). Solucionar empates aleatoriamente. s:=s’. Go to 2 Fig.5 Clases pertenecientes al paquete creado, funciones y librerías que se encuentran implementadas en la página del autor del libro. Hemos agregado la heurística de Manhattan como base para implementar herencia y poder derivar la heurística LRTA*
32. Ontología de la base del conocimiento Con conocimiento específico. Estimado en el coste del camino total, si la estimación es menor a la ruta actual se refleja un camino con una solución mejor. x
37. RDF ResourceDescription Framework Representadas formalmente usando tripletas, compuesta de: sujeto, predicado y objeto. Sin embargo otra forma de notación para mostrar las sentencias es mediante grafos dirigidos, de nodos y arcos, que representan los recursos, propiedades y valores. Page 35