1. GENERACIÓN DE LAS
COMPUTADORAS Y
REALIDAD AUMENTADA
ERICK BELTRÁN
8vo. “C”
2. GENERACIÓN DE LAS COMPUTADORAS
Primera generación (1951 - 1958)
Las computadoras de la primera Generación emplearon
bulbos para procesar información. Los operadores
ingresaban los datos y programas en código especial por
medio de tarjetas perforadas. El almacenamiento interno se
lograba con un tambor que giraba rápidamente, sobre el cual
un dispositivo de lectura/escritura colocaba marcas
magnéticas. Estas computadoras estaban constituidas por
tubos de vacío, desprendían bastante calor y tenían una vida
relativamente corta, eran grandes y pesadas. Generaban un
alto consumo de energía, el voltaje de los tubos era de 300 V
y la posibilidad de fundirse era grande
Eckert y Mauchly contribuyeron al desarrollo de
computadoras de la primera generación formando una
compañía privada y construyendo UNIVAC I, la cual se
utilizó para evaluar el censo de 1950. La IBM tenía el
monopolio de los equipos de procesamiento de datos a base
de tarjetas perforadas, sin embargo no había logrado el
contrato para el Censo de 1950.
3. Comenzó entonces a construir computadoras electrónicas y
su primera entrada fue con la IBM 701 en 1953. Después de
un lento pero excitante comienzo la IBM 701 se convirtió en
un producto comercialmente viable. Sin embargo en 1954
fue introducido el modelo IBM 650, el cual es la razón por la
que IBM disfruta hoy de una gran parte del mercado de las
computadoras. La administración de la IBM asumió un gran
riesgo y estimó una venta de 50 computadoras. Este número
era mayor que la cantidad de computadoras instaladas en esa
época en EE.UU. De hecho la IBM instaló 1000
computadoras. Aunque caras y de uso limitado las
computadoras fueron aceptadas rápidamente por las
Compañías Privadas y de Gobierno. A la mitad de los años
50 IBM y Remington Rand se consolidaban como líderes en
la fabricación de computadoras.
Segunda generación (1959 - 1964)
4. El invento del transistor (dispositivo electrónico que sirve
como amplificador de señal) hizo posible una nueva
generación de computadoras, más rápidas, más pequeñas y
con menores necesidades de ventilación. No obstante el
costo seguía siendo una porción significativa del presupuesto
de una Compañía. Las computadoras de la segunda
generación también utilizaban redes de núcleos magnéticos
en lugar de tambores giratorios para el almacenamiento
primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían
almacenarse datos e instrucciones.
Mejoraron los dispositivos de entrada y salida, para la mejor
lectura de tarjetas perforadas, se disponía de células
fotoeléctricas. Los programas de computadoras también
avanzaron. El COBOL (COmmon Busines Oriented
Languaje) desarrollado durante la primera generación estaba
ya disponible comercialmente; fue uno de los primeros
programas que se pudieron ejecutar en diversos equipos de
computo después de un sencillo procesamiento de
compilación. Los programas escritos para una computadora
podían transferirse a otra con un mínimo esfuerzo. Grace
Murria Hooper, quien en 1952 había inventado el primer
compilador fue una de las principales figuras de CODASYL
(Comité on Data SYstems Languages), la misma se encargo
de desarrollar el proyecto COBOL, el escribir un programa
5. ya no requería entender plenamente el hardware de la
computación.
Las computadoras de la segunda generación eran más
pequeñas y rápidas que las de bulbos, y se usaban para
nuevas aplicaciones, como en los sistemas para reservación
en líneas aéreas, control de tráfico aéreo y simulaciones para
uso general. Las empresas comenzaron a aplicar las
computadoras a tareas de almacenamiento de registros, como
manejo de inventarios, nómina y contabilidad.
La marina de EE.UU. utilizó las computadoras de la segunda
generación para crear el primer simulador de vuelo. Para ese
entonces HoneyWell se había colocado como el primer
competidor durante la segunda generación de computadoras.
Algunas de las computadoras que se construyeron ya con
transistores fueron la IBM 1401, las Honeywell 800 y su
serie 5000, UNIVAC M460, Control Data Corporation con
su conocido modelo CDC16O4, y muchas otras, que
constituían un mercado de gran competencia, en rápido
crecimiento.
Tercera generación (1964 - 1971)
6. Las computadoras de la tercera generación emergieron con el
desarrollo de los circuitos integrados, en las cuales se
colocan miles de componentes electrónicos, en una
integración en miniatura. Las computadoras nuevamente se
hicieron más pequeñas, más rápidas, desprendían menos
calor y eran energéticamente más eficientes. El
descubrimiento en 1958 del primer Circuito Integrado (chip)
por el ingeniero Jack S. Kilbry de Texas Instruments, así
como los trabajos que realizaba, por su parte, el Dr. Robert
Noyce de Fairchild Semiconductors, acerca de los circuitos
integrados, dieron origen a la tercera generación de
computadoras. Antes de la llegada de los circuitos
integrados, las computadoras estaban diseñadas para
aplicaciones matemáticas o de negocios, pero no para las dos
cosas.
Los circuitos integrados permitieron a los fabricantes de
computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos. Se instalan terminales remotas,
que puedan acceder a la computadora central para realizar
operaciones, extraer o introducir información en Bancos de
Datos, etc. Aumenta la capacidad de almacenamiento y se
reduce el tiempo de respuesta. Se generalizan los lenguajes
de programación de alto nivel.
7. IBM marca el inicio de esta generación, cuando el 7 de abril
de 1964 presenta la impresionante IBM 360, con su
tecnología SLT (Solid Logic Technology), fue una de las
primeras computadoras comerciales que usó circuitos
integrados, podía realizar tanto análisis numéricos como
administración ó procesamiento de archivos. Esta máquina
causó tal impacto en el mundo de la computación que se
fabricaron más de 30000.
Se empiezan a utilizar los medios magnéticos de
almacenamiento, como cintas magnéticas de 9 canales,
enormes discos rígidos, etc. Algunos sistemas todavía usan
las tarjetas perforadas para la entrada de datos, pero los
lectores de tarjetas ya alcanzan velocidades respetables.
Las computadoras trabajaban a tal velocidad que
proporcionaban la capacidad de correr más de un programa
de manera simultánea (multiprogramación). Por ejemplo la
computadora podía estar calculando la nomina y aceptando
pedidos al mismo tiempo. Con la introducción del modelo
360, IBM acaparó el 70% del mercado, para evitar competir
directamente con IBM la empresa Digital Equipment
8. Corporation redirigió sus esfuerzos hacia computadoras
pequeñas. Mucho menos costosas de comprar y de operar
que las computadoras grandes, las minicomputadoras se
desarrollaron durante la segunda generación pero alcanzaron
un gran auge entre 1960 y 1970.
Cuarta generación (1971 - 1982)
Dos mejoras en la tecnología de las computadoras marcan el
inicio de la cuarta generación: el reemplazo de las memorias
con núcleos magnéticos, por las de chips de silicio y la
colocación de muchos más componentes en un chip,
producto de la microminiaturización de los circuitos
electrónicos. El tamaño reducido del microprocesador y de
chips hizo posible la creación de las computadoras
personales.
En 1971, Intel Corporation, que era una pequeña compañía
fabricante de semiconductores ubicada en Silicon Valley,
presenta el primer microprocesador o chip de 4 bits, que en
un espacio de aproximadamente 4 X 5 mm contenía 2250
transistores. Este primer microprocesador fue bautizado
como el 4004.
Esta generación de computadoras se caracterizó por grandes
avances tecnológicos realizados en un tiempo muy corto. En
1977 aparecen las primeras microcomputadoras, entre las
9. cuales, las más famosas fueron las fabricadas por Apple
Computer, Radio Shack y Commodore Busíness Machines.
IBM se integra al mercado de las microcomputadoras con su
Personal Computer, asimismo se incluye un sistema
operativo estandarizado, el MS-DOS (MicroSoft Disk
Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por
infinidad de compañías con base en los procesadores 8088,
8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II,
Pentium III y Celeron de Intel y en segundo término Apple
Computer, con sus Macintosh y las Power Macintosh, que
tienen gran capacidad de generación de gráficos y sonidos
gracias a sus poderosos procesadores Motorola serie 68000 y
PowerPC, respectivamente. Este último microprocesador ha
sido fabricado utilizando la tecnología RISC (Reduced
Instruction Set Computing), por Apple Computer Inc.,
Motorola Inc. e IBM Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo,
sobre todo por la posibilidad de generar gráficos a grandes
velocidades, lo cual permite utilizar las interfaces gráficas de
usuario (Graphic User Interface, GUI), que son pantallas con
ventanas, iconos (figuras) y menús desplegables que facilitan
las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del
sistema operativo para realizar operaciones de copiado o
formato con una simple pulsación de cualquier botón del
ratón sobre uno de los iconos o menús.
Quinta generación (1982 - actualidad)
10. Siguiendo la pista a los acontecimientos tecnológicos en
materia de computación e informática, podemos señalar
algunas fechas y características de lo que es la quinta
generación de computadoras. Con base en los grandes
acontecimientos tecnológicos en materia de microelectrónica
y computación, se dice que en la década de los ochenta se
establecieron los cimientos de lo que se puede conocer como
la quinta generación de computadoras.
Hay que mencionar uno de los importantes avances
tecnológicos: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo,
diseñada por Seymouy Cray, quien ya experimentaba desde
1968 con supercomputadoras, y que funda en 1976 la Cray
Research Inc.
El proceso paralelo es aquél que se lleva a cabo en
computadoras que tienen la capacidad de trabajar
simultáneamente con varios microprocesadores, aunque en
teoría el trabajo con varios microprocesadores debería ser
mucho más rápido, es necesario llevar a cabo una
programación especial que permita asignar diferentes tareas
de un mismo proceso a los diversos microprocesadores que
intervienen. También se debe adecuar la memoria para que
pueda atender los requerimientos de los procesadores al
mismo tiempo. Para solucionar este problema se tuvieron
que diseñar módulos de memoria compartida capaces de
asignar áreas de caché para cada procesador.
Las computadoras de esta generación contienen una gran
cantidad de microprocesadores trabajando en paralelo y
pueden reconocer voz e imágenes, también tienen la
11. capacidad de comunicarse con un lenguaje natural. El
almacenamiento de información se realiza en dispositivos
magneto-ópticos con capacidades de decenas de gigabytes;
se establece el DVD (Digital Video Disk o Digital Versatile
Disk) como estándar para el almacenamiento de video y
sonido; la capacidad de almacenamiento de datos crece de
manera exponencial posibilitando guardar más información
en una de estas unidades, que toda la que había en la
Biblioteca de Alejandría.
Uno de los pronósticos que se han venido realizando sin
interrupciones en el transcurso de esta generación, es la
conectividad entre computadoras, que a partir de 1994, con
la llegada de la red Internet y del World Wide Web, ha
adquirido una importancia vital en las grandes, medianas y
pequeñas empresas y, entre los usuarios particulares de
computadoras.
Sexta generación (futuro)
12. Como supuestamente la sexta generación de computadoras
está por venir, en un futuro no muy lejano, debemos por lo
menos, esbozar las características que deben tener las
computadoras de esta generación. Las computadoras de esta
generación cuentan con arquitecturas combinadas
Paralelo/Vectorial, con cientos de microprocesadores
vectoriales trabajando al mismo tiempo; se han creado
computadoras capaces de realizar más de un millón de
millones de operaciones aritméticas de punto flotante por
segundo (teraflops); las redes de área mundial (Wide Area
Network, WAN) seguirán creciendo desorbitadamente
utilizando medios de comunicación a través de fibras ópticas
y satélites, con anchos de banda impresionantes. Las
tecnologías de esta generación ya han sido desarrolladas o
están en ese proceso. Algunas de ellas son: inteligencia
artificial distribuida, teoría del caos, sistemas difusos,
holografía, transistores ópticos, etc.
13. Quinta Generación
La quinta generación inicia a principios de los años ochenta,
teniendo como característica principal la evolución de las
comunicaciones a la par de la tecnología.
La computación paralela sigue avanzando al grado de que
los sistemas paralelos empiezan a competir con los sistemas
vectoriales en términos de poder total de cómputo.
La miniaturización de componentes y su consecuente
reducción en costo y necesidades técnicas ayudan a obtener
sistemas de muy alta capacidad en donde las estaciones de
trabajo compiten y superan en capacidad a las
supercomputadoras de las generaciones anteriores.
Dentro de los eventos que forjaron el inicio de este período
están:
La actualización de la especificación IEEE 802.3, para
incluir cableado de par de cobre trenzado con 10 Base
T.
14. Tim Berners-Lee trabaja en una interfaz gráfica de
usuario navegador y editor de hipertexto utilizando el
ambiente de desarrollo de NeXTStep, bautizando
"World Wide Web" al programa y al proyecto.
Motorola presenta el concepto del Sistema Iridium para
comunicación personal global, complementando los
sistemas de comunicación alámbrica e inalámbrica
terrestre.
Formalmente se cierra ARPAnet, que es reemplazada
por la NSFnet y las redes interconectadas, dando origen
a la participación pública en el desarrollo de lo que se
convertiría en la red de redes, Internet, y la formación
del grupo de trabajo para redes inalámbricas
IEEE802.11 (Wireless LAN Working Group IEEE
802.11).
La implementación de redes de datos digitales se vuelve un
asunto cotidiano, no solo alcanzando altas velocidades, sino
además creando esquemas jerárquicos de transmisión de
datos permitiendo la integración de servicios de video de alta
calidad con movimiento total, voz y otros datos digitales
multimedia en tiempo real.
El siguiente paso tecnológico consistió en la integración de
computadoras en red para trabajo simultáneo o computación
distribuida, en donde un proceso en una computadora en red
puede encontrar tiempo de procesador en otra de la misma
red para realizar trabajos en paralelo.
Otros avances fundamentados en las tecnologías de
comunicación son:
15. Funcionamiento de computadoras en modo agrupado,
también conocido como "cluster", en donde varias
computadoras se comportan como una misma, dando un
grado tal de tolerancia a fallas, que inclusive puede
fallar una computadora sin que la funcionalidad se
afecte.
Dispositivos inteligentes, yendo desde tostadoras y
hornos de microondas, hasta casas y edificios
conectados en red para su administración, supervisión y
control remoto a través de las redes.
Internet hace entrada en el mundo doméstico abriendo
nuevas alternativas para negocios, comercios y empresas
creando lo que se conocería como el "bum del punto com",
en donde aparecen y desaparecen servidores de Internet en
un grado vertiginoso, todos ellos de empresas que buscan un
posicionamiento global.
Con las computadoras de nivel elemental de esta época y la
caída en los costos de las comunicaciones se llegan a crear
negocios virtuales cuya única sucursal puede estar en un
servidor doméstico y tener presencia mundial.
Sexta Generación
Cada vez se hace mucho más difícil la identificación de las
generaciones de las computadoras, porque los grandes
avances y nuevos descubrimientos ya no nos sorprenden
como sucedió a mediados del siglo XX. Hay quienes
consideran que la quinta generación ha terminado (la ubican
entre los años 1984 a 1990) y que la sexta generación está en
desarrollo desde los años noventa hasta la actualidad; por
16. otro lado, expertos en la informática y la computación
afirman que la quinta generación no ha culminado (se viene
desarrollando desde los años ochenta hasta la actualidad) y
que la sexta generación es el futuro (la relacionan con la
robótica y la inteligencia artificial).
Guiándonos en base a lo investigado y en nuestros propios
conocimientos, consideramos que la sexta generación es el
futuro y parte de la actualidad.
Se vienen desarrollando con mayor auge y mejor tecnología:
Las Computadoras Portátiles (Ladtops).
Las Computadoras de Bolsillo (PDAs).
Los Dispositivos Multimedia.
Los Dispositivos Móviles Inalámbricos (SPOT, UPnP,
Smartphone, etc.)
El Reconocimiento de voz y escritura.
Las Computadoras Ópticas (luz, sin calor, rápidas).
Las Computadoras Cuánticas (electrones, moléculas,
qbits, súper rápidas).
La Mensajería y el Comercio Electrónico.
La Realidad Virtual.
Las Redes Inalámbricas (WiMax, WiFi, Bluetooth).
El Súper Computo (Procesadores Paralelos Masivos).
17. Las Memorias Compactas (Discos Duros externos USB,
SmartMedia, PCMCIA).
En esta generación se espera llegar a los Sistemas Expertos
(imitar el comportamiento de un profesional humano), para
esto se emplearán microcircuitos con inteligencia, en donde
las computadoras tendrán la capacidad de aprender, asociar,
deducir y tomar decisiones para la resolución de un
problema, la famosa "Generación de la Inteligencia
Artificial".
El propósito de la Inteligencia Artificial es equipar a las
computadoras con inteligencia humana y con la capacidad de
razonar para encontrar soluciones. Otro factor fundamental
del diseño, la capacidad de la computadora para reconocer
patrones y secuencias de procesamiento que haya encontrado
previamente, (programación Heurística) que permita a la
computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la computadora aprenderá a partir
de sus propias experiencias usará sus datos originales para
obtener la respuesta por medio del razonamiento y
conservará esos resultados para posteriores tareas de
procesamiento y toma de decisiones. El conocimiento recién
adquirido le servirá como base para la próxima serie de
soluciones.
18. La Inteligencia Artificial recoge en su seno los siguientes
aspectos fundamentales:
a) Sistemas Expertos:
Un sistema experto es un sofisticado programa de
computadora; posee en su memoria y en su estructura una
amplia cantidad de saber y sobre todo, estrategias para
depurarlo y ofrecerlo según los requerimientos, convirtiendo
al sistema en un especialista que está programado. Duplica la
forma de pensar de expertos reconocidos en los campos de la
medicina, estrategia militar, exploración petrolera, etc. Se
programa a la computadora para reaccionar en la misma
forma en que lo harían expertos, hacia las mismas preguntas,
sacar las mismas conclusiones iniciales, verificar de la
misma manera la exactitud de los resultados y redondear las
ideas dentro de principios bien definidos.
b) Lenguaje Natural:
Consiste en que las computadoras y sus aplicaciones en
robótica puedan comunicarse con las personas sin ningún
problema, ni dificultad de comprensión, ya sea oralmente o
por escrito. Hablar con las máquinas y que éstas entiendan
nuestra lengua y también que se hagan entender en nuestra
lengua.
c) Robótica:
Ciencia que se ocupa del estudio, desarrollo y aplicaciones
de los robots. Los Robots son dispositivos compuestos de
sensores que reciben Datos de Entrada y que están
conectados a la computadora. Esta recibe la información de
19. entrada y ordena al Robot que efectúe una determinada
acción y así sucesivamente. Las finalidades de la
construcción de Robots radican principalmente en su
intervención en procesos de fabricación, por ejemplo: pintar
en spray, soldar carrocerías de autos, trasladar materiales,
etc.
d) Reconocimiento de la Voz:
Las aplicaciones de reconocimiento de voz tienen como
objetivo la captura, por parte de una computadora, de la voz
humana para el tratamiento del lenguaje natural o para
cualquier otro tipo de función.
Realidad aumentada
La realidad aumentada (RA) es el término que se usa para
definir una visión directa o indirecta de un entorno físico del
mundo real, cuyos elementos se combinan con elementos
virtuales para la creación de una realidad mixta en tiempo
real. Consiste en un conjunto de dispositivos que añaden
información virtual a la información física ya existente, es
decir, añadir una parte sintética virtual a lo real. Esta es la
principal diferencia con la realidad virtual, puesto que no
sustituye la realidad física, sino que sobreimprime los datos
informáticos al mundo real.
Con la ayuda de la tecnología (por ejemplo, añadiendo la
visión por computador y reconocimiento de objetos) la
información sobre el mundo real alrededor del usuario se
20. convierte en interactiva y digital. La información artificial
sobre el medio ambiente y los objetos pueden ser
almacenada y recuperada como una capa de información en
la parte superior de la visión del mundo real.
La realidad aumentada de investigación explora la aplicación
de imágenes generadas por ordenador en tiempo real a
secuencias de video como una forma de ampliar el mundo
real. La investigación incluye el uso de pantallas colocadas
en la cabeza, un display virtual colocado en la retina para
mejorar la visualización, y la construcción de ambientes
controlados a partir sensores y actuadores.
Definición
Hay dos definiciones comúnmente aceptadas de la Realidad
Aumentada en la actualidad.
Uno de ellas fue dada por Ronald Azuma en 1997. La
definición de Azuma dice que la realidad aumentada:
Combina elementos reales y virtuales.
Es interactiva en tiempo real.
Está registrada en 3D.
Además Paul Milgram y Fumio Kishino definen la realidad
de Milgram-Virtuality Continuum en 1994. Que describen
como un continuo que abarca desde el entorno real a un
entorno virtual puro. Entre medio hay Realidad Aumentada
21. (más cerca del entorno real) y Virtualidad Aumentada (está
más cerca del entorno virtual).
Recientemente, el término realidad aumentada se ha
difundido por el creciente interés del público en general.
Tecnología.
Hardware
Los dispositivos de Realidad aumentada normalmente
constan de un "headset" y un sistema de display para
mostrar al usuario la información virtual que se añade a la
real. El "headset" lleva incorporado sistemas de GPS,
necesarios para poder localizar con precisión la situación del
usuario.
Los dos principales sistemas de "displays" empleados son la
pantalla óptica transparente (Optical See-through Display) y
la pantalla de mezcla de imágenes (Video-mixed Display).
Tanto uno como el otro usan imágenes virtuales que se
muestran al usuario mezcladas con la realidad o bien
proyectadas directamente en la pantalla.
Los Sistemas de realidad aumentada modernos utilizan una o
más de las siguientes tecnologías: cámaras digitales, sensores
ópticos, acelerómetros, GPS, giroscopios, brújulas de estado
sólido, RFID, etc. El Hardware de procesamiento de sonido
podría ser incluido en los sistemas de realidad aumentada.
Los Sistemas de cámaras basadas en Realidad Aumentada
22. requieren de una unidad CPU potente y gran cantidad de
memoria RAM para procesar imágenes de dichas cámaras.
La combinación de todos estos elementos se da a menudo en
los smartphones modernos, que los convierten en un posible
plataforma de realidad aumentada.
Software
Para fusiones coherentes de imágenes del mundo real,
obtenidas con cámara, e imágenes virtuales en 3D, las
imágenes virtuales deben atribuirse a lugares del mundo real.
Ese mundo real debe ser situado, a partir de imágenes de la
cámara, en un sistema de coordenadas. Dicho proceso se
denomina registro de imágenes. Este proceso usa diferentes
métodos de visión por ordenador, en su mayoría
relacionados con el seguimiento de vídeo. Muchos métodos
de visión por ordenador de realidad aumentada se heredan de
forma similar de los métodos de odometría visual.
Por lo general los métodos constan de dos partes. En la
primera etapa se puede utilizar la detección de esquinas, la
detección de Blob, la detección de bordes, de umbral y los
métodos de procesado de imágenes. En la segunda etapa el
sistema de coordenadas del mundo real es restaurado a partir
de los datos obtenidos en la primera etapa. Algunos métodos
asumen los objetos conocidos con la geometría 3D (o
marcadores fiduciarios) presentes en la escena y hacen uso
de esos datos. En algunos de esos casos, toda la estructura de
la escena 3D debe ser calculada de antemano. Si no hay
ningún supuesto acerca de la geometría 3D se estructura a
partir de los métodos de movimiento. Los métodos utilizados
en la segunda etapa incluyen geometría proyectiva
23. (epipolar), paquete de ajuste, la representación de la rotación
con el mapa exponencial, filtro de Kalman y filtros de
partículas.
D.A.R.T. (Designer’s Augmented Reality Toolkit)
El Designer’s Augmented Reality Toolkit (DART) es un
sistema de programación que fue creado por el Augmented
Environments Lab, en el Georgia Institute of Technology,
para ayudar a los diseñadores a visualizar la mezcla de los
objetos reales y virtuales. Proporciona un conjunto de
herramientas para los diseñadores: extensiones para el
Macromedia Director (herramienta para crear juegos,
simulaciones y aplicaciones multimedia) que permiten
coordinar objetos en 3D, vídeo, sonido e información de
seguimiento de objetos de Realidad Aumentada.
Software Libre para Realidad Aumentada
ARToolKit biblioteca GNU GPL que permite la creación
de aplicaciones de realidad aumentada, desarrollado
originalmente por Hirokazu Kato en 1999[1] y fue
publicado por el HIT Lab de la Universidad de
Washington. Actualmente se mantiene como un
proyecto de código abierto alojado en SourceForge con
licencias comerciales disponibles en ARToolWorks..
ATOMIC Authoring Tool - es un software Multi-
plataforma para la creación de aplicaciones de realidad
aumentada, el cual es un Front end para la biblioteca
ARToolKit. Fue Desarrollado para no-programadores, y
24. permite crear rápidamente, pequeñas y sencillas
aplicaciones de Realidad Aumentada. Está licenciado
bajo la Licencia GNU GPL
ATOMIC Web Authoring Tool es un proyecto hijo de
ATOMIC Authoring Tool que permite la creación de
aplicaciones de realidad aumentada para exportarlas a
cualquier sitio web. Es un Front end para la biblioteca
Flartoolkit.Está licenciado bajo la Licencia GNU GPL
Técnicas de visualización
Existen tres técnicas principales para mostrar la realidad
aumentada:
Display en la cabeza
Una pantalla instalada en la cabeza (HMD Head-Mounted
Display) muestra tanto las imágenes de los lugares del
mundo físico y social donde nos encontremos, como objetos
virtuales sobre la vista actual del usuario. Los HMD son
dispositivos ópticos que permiten al usuario poder ver el
mundo físico a través de la lente y superponer información
gráfica que se refleja en los ojos del usuario. El HMD debe
ser rastreado con un sensor. Este seguimiento permite al
sistema informático añadir la información virtual al mundo
físico. La principal ventaja de la HMD de Realidad
Aumentada es la integración de la información virtual dentro
del mundo físico para el usuario. La información gráfica esta
condicionada a la vista del usuario.
25. Display de mano
El dispositivo manual con realidad aumentada cuenta con un
dispositivo informático que incorpora una pantalla pequeña
que cabe en la mano de un usuario. Todas las soluciones
utilizadas hasta la fecha por los diferentes dispositivos de
mano han empleado técnicas de superposición sobre el video
con la información gráfica. Inicialmente los dispositivos de
mano empleaban sensores de seguimiento tales como
brújulas digitales y GPS que añadían marcadores al video.
Más tarde el uso de sistemas, como ARToolKit, nos
permitían añadir información digital a las secuencias de
video en tiempo real. Hoy en día los sistemas de visión como
SLAM o PTAM son empleados para el seguimiento. El
display de mano promete ser el primer éxito comercial de las
tecnologías de Realidad Aumentada. Sus dos principales
ventajas son el carácter portátil de los dispositivos de mano y
la posibilidad de ser aplicada en los teléfonos con cámara.
Display espacial
La Realidad Aumentada espacial (SAR) hace uso de
proyectores digitales para mostrar información gráfica sobre
los objetos físicos. La diferencia clave es que la pantalla está
separada de los usuarios del sistema. Debido a que el display
no está asociado a cada usuario, permite a los grupos de
usuarios, utilizarlo a la vez y coordinar el trabajo entre ellos.
SAR tiene varias ventajas sobre el tradicional display
colocado en la cabeza y sobre dispositivos de mano. El
usuario no está obligado a llevar el equipo encima ni a
someterse al desgaste de la pantalla sobre los ojos. Esto hace
del display espacial un buen candidato para el trabajo
26. colaborativo, ya que los usuarios pueden verse las caras. El
display espacial no está limitado por la resolución de la
pantalla, que sí que afecta a los dispositivos anteriores. Un
sistema de proyección permite incorporar más proyectores
para ampliar el área de visualización. Los dispositivos
portátiles tienen una pequeña ventana al mundo para
representar la información virtual, en cambio en un sistema
SAR puedes mostrar un mayor número de superficies
virtuales a la vez en un entorno interior. Es una herramienta
útil para el diseño, ya que permite visualizar una realidad
que es tangible de forma pasiva.
Aplicaciones
La realidad aumentada ofrece infinidad de nuevas
posibilidades de interacción, que hacen que esté presente en
muchos y varios ámbitos, como son la arquitectura, el
entretenimiento, la educación, el arte, la medicina o las
comunidades virtuales.
Proyectos educativos:
Actualmente la mayoría de aplicaciones de realidad
aumentada para proyectos educativos se usan en museos,
exhibiciones, parques de atracciones temáticos... puesto que
su coste todavía no es suficientemente bajo para que puedan
ser empleadas en el ámbito doméstico. Estos lugares
aprovechan las conexiones wireless para mostrar
información sobre objetos o lugares, así como imágenes
virtuales como por ejemplo ruinas reconstruidas o paisajes
tal y como eran en el pasado, Además de escenarios
completos en realidad aumentada, donde se pueden apreciar
27. e interactuar con los diferentes elementos en 3D, como
partes del cuerpo.
Cirugía:
La aplicación de realidad aumentada en operaciones permite
al cirujano superponer datos visuales como por ejemplo
termografías o la delimitación de los bordes limpios de un
tumor, invisibles a simple vista, minimizando el impacto de
la cirugía.
Entretenimiento:
Teniendo en cuenta que el de los juegos es un mercado que
mueve unos 30.000 millones de dólares al año en los Estados
Unidos, es comprensible que se esté apostando mucho por la
realidad aumentada en este campo puesto que ésta puede
aportar muchas nuevas posibilidades a la manera de jugar.
Una de las puestas en escena más representativas de la
realidad aumentada es el "Can You See Me Now?",[2] de
Blast Theory.[3] Es un juego on-line de persecución por las
calles donde los jugadores empiezan en localizaciones
aleatorias de una ciudad, llevan un ordenador portátil y están
conectados a un receptor de GPS.