SlideShare uma empresa Scribd logo
1 de 76
Una conferencia web es similar a una
reunión personal porque permiten a los asistentes
interactuar entre sí, participan entre 2 y 20 personas y
pueden compartir documentos y aplicaciones.
Las videoconferencias web son reuniones ‘virtuales’ a
través de Internet cuyos participantes trabajan en
distintas ubicaciones físicas. La sala de reuniones real
se sustituye por el escritorio del ordenador del
anfitrión de la reunión (la persona que la ha
organizado). Cada participante se sienta ante su propio
ordenador, donde puede ver todo lo que el presentador
va mostrando en su pantalla (función de ‘desktop
sharing’ o escritorio compartido).
wiziq
elluminate
televisión digital a (o DTV, de sus siglas en
inglés: Digital TV) se refiere al conjunto de tecnologías
de transmisión y recepción de imagen y sonido, a
través de señales digitales. En contraste con la
televisión tradicional, que codifica los datos de
manera analógica, la televisión digital codifica sus
señales de forma binaria, habilitando así la posibilidad
de crear vías de retorno entre consumidor y productor
de contenidos, abriendo la posibilidad de crear
aplicaciones interactivas, y la capacidad de transmitir
varias señales en un mismo canal asignado, gracias a
la diversidad de formatos existentes.
Un sistema integro de televisión digital, incorpora los
siguientes actores:
 Cámaras de video digitales, que trabajan a
resoluciónes mucho más altas que las cámaras
analógicas.
 Transmisión digital
 Display digital, de alta resolución (Ej: LCDs,
Plasmas)
red social es una estructura social compuesta de
personas , las cuales están conectadas por uno o
varios tipos de relaciones, tales como amistad,
parentesco, intereses comunes, intercambios
económicos, relaciones sexuales, o que comparten
creencias, conocimiento o prestigio.
9 Badoo
8 Metroflog
7 Menéame
6 MySpace
5 Hi5
4 Yahoo Respuestas
3 Twitter
2 Facebook
1 YouTube
navegador
Un navegador o navegador web (del inglés, web
browser) es un programa que permite ver la
información que contiene una página web
El navegador interpreta el código, HTML
generalmente,en el que está escrita la página web y lo
presenta en pantalla permitiendo al usuario interactuar
con su contenido y navegar hacia otros lugares de la
red mediante enlaces o hipervínculos.
La funcionalidad básica de un navegador web es
permitir la visualización de documentos de texto,
posiblemente con recursos multimedia incrustados.
Los documentos pueden estar ubicados en la
computadora en donde está el usuario, pero también
pueden estar en cualquier otro dispositivo que esté
conectado a la computadora del usuario o a través de
Internet, y que tenga los recursos necesarios para la
transmisión de los documentos (un software servidor
web).
Tales documentos, comúnmente denominados paginas
web, poseen hipervínculos que enlazan una porción de
texto o una imagen a otro documento, normalmente
relacionado con el texto o la imagen.
Tipos de navegadores o exploradores web
Algunos de los navegadores o exploradores web más
populares son: Internet Explorer, Mozilla Firefox,
Safari, Opera, Google Chrome y Flock.
Otros navegadores no tan conocidos son: Maxthon,
Avant, DeepNet, PhaseOut, SpaceTime, Amaya...
componentes internos de la pc
Motherboard
CPU
BIOS
RAM
Tarjeta de Video
Tarjeta de Sonido (Opcional)
Tarjeta de Red (Opcional)
Unidades de Almacenamiento
Fuente de Poder
tecnologia wifi
¿Qué es la tecnología wi-Fi?
Wi-Fi (Wireless Fidelity) es la tecnología utilizada en
una red o conexión inalámbrica, para la comunicación
de datos entre equipos situados dentro de una misma
área (interior o exterior) de cobertura.
Conceptualmente, no existe ninguna diferencia entre
una red con cables (cable coaxial, fibra óptica, etc.) y
una inalámbrica. La diferencia está en que las redes
inalámbricas transmiten y reciben datos a través de
ondas electromagnéticas, lo que supone la eliminación
del uso de cables y, por tanto, una total flexibilidad en
las comunicaciones.
De entre todos los tipos de redes inalámbricas, son las
redes inalámbricas IEEE 802.11b las que son
conocidas como Wi-Fi (Wireless Fidelity), debido a su
amplia difusión en el mercado. Los productos y redes
Wi-Fi aseguran la compatibilidad efectiva entre
equipos, eliminando en los clientes las dudas que
puedan surgir a la hora de comprar un nuevo terminal.
El Wi-Fi no es, sin embargo, una alternativa a una red
convencional, sino que es una nueva tecnología que
viene a complementar a aquellas. Ambas redes
(inalámbricas y de cables) ofrecen las mismas
expectativas de comunicaciones (compartir
periféricos, acceso a una base de datos o a ficheros
compartidos, acceso a un servidor de correo, navegar
a través de Internet, etc.).
En una red inalámbrica cada ordenador dispone de un
adaptador de red inalámbrico. Estos adaptadores se
conectan enviando y recibiendo ondas de radio a
través de un transceptor (transmisor-receptor), que
puede situarse en cualquier lugar, interior o exterior,
dentro del área de cobertura, sin la preocupación del
cableado.
Las redes inalámbricas permiten la transmisión de
datos a velocidades de 11 Mbps o incluso superiores,
lo que proporciona rapidez suficiente para la mayoría
de las aplicaciones.
Se puede decir que el entorno Wi-Fi es la solución
idónea que unifica movilidad y conectividad en la
transmisión de datos, ofreciendo una nueva posibilidad
de "oficina móvil", se esté donde se esté.
pc para jugar
A que jugamos?
NUESTRAS PREFERENCIAS Y HÁBITOS DE JUEGO
PUEDEN HACER UNA DIFERENCIA A LA HORA DE
ELEGIR EL HARDWARE.
Una manera de ajustar el presupuesto a la hora de
elegir componentes consiste en tener en cuenta
cuáles son los tipos de juegos que nos más nos
gustan. Hay gamers absolutos, que gustan de
experimentar con títulos de todos los géneros, pero
también hay muchos gamers especializados, que
prefieren enfocarse puntualmente a la estrategia, las
aventuras, las carreras, etc.
En una computadora hay 3 puntos clave que definen su
desempeño: procesador, cantidad de memoria y placa
de video. Aquí, la clave es saber sobre cuál de estas 3
patas prefieren apoyarse nuestros juegos preferidos.
Es decir: hay títulos que requieren una placa de video
muy poderosa, pero que se las arreglan con un procesa
dar modesto, y viceversa.
En la actualidad, para la mayoría de los juegos basta
con tener un procesador de doble núcleo de gama
media-baja, mientras que la placa de video se ha
convertido en un factor fundamental. Esto se debe a
dos factores: por un lado, los microprocesadores
alcanzaron un nivel de desarrollo tan alto, que incluso
los modelos económicos son suficientemente
poderosos. En segundo lugar, la calidad gráfica de los
juegos no para de avanzar, lo que, obviamente, exige
más al chip gráfico. No obstante, todavía se puede
señar algún tipo de diferenciación basada en géneros.
Veamos qué componente sobrecarga más cada tipo de
juego:
Como la mayoría jugamos a títulos de acción (los
simuladores quedan para unos pocos raros y
sabiondos). es válido afirmar que la tarjeta gráfica es,
hoy en día, el componente gamer fundamental. El
procesador, en tanto, ocupa un lugar no tan estelar
como en el pasado. Sí afecta el rendimiento, pero
hasta los modelos económicos brindan la potencia
suficiente para jugar de manera acepta.
Placas de Video
LAS TARJETAS ENCARGADAS DE LOS GRÁFICOS SON
LA ESTRELLA DE CUALQUIER PC GAMER ACTUAL.
La pregunta suele ser directa, sin preámbulos: ¿Qué
placa de video me compro para jugar? Pues bien,
amigos, de esta manera no hay forma de responder.
Antes es necesario saber algo fundamental: qué tipo
de monitor tendrá la PC.
La resolución de la pantalla nos da una indicación
clara y real de cuánto trabajo deberá realizar la tarjeta
gráfica en cada caso. Por ejemplo: en una pantalla a
1024 x 768 píxeles, la tarjeta tendrá que "dibujar"
yalmacenar en su memoria 786432 píxeles. A la
resolución de 1280 x 1024, la cifra se eleva a 1310720
píxeles. Este juego teórico sirve para comenzar a
darnos cuenta de las implicancias de la resolución.
Volvamos a la pregunta: ¿a qué resolución nos gusta
ejecutar nuestros juegos? En los monitores LCD, los
juegos se ven mejor a la resolución nativa de la
pantalla. Y en los CRT (de tubo). sabemos que hay
resoluciones que se adaptan más o menos bien al
tamaño del marco de la pantalla. La resolución elegida
debería ser nuestra "medida objetivo", y nos ayudará a
elegir la placa de video.
Si tenemos un monitor chico (y no pensamos
cambiarlo). como puede ser un CRT de 17 pulgadas,
una resolución de 1024 x 768 será suficiente para que
los juegos se vean aceptablemente bien. Para esto nos
bastará con una tarjeta gráfica de gama baja o media.
Si tenemos una pantalla de 15 pulgadas con resolución
de 800 x 600, podría bastarnos hasta con la potencia
del video onboard del motherboard. Ahora bien, la
realidad es que el estándar actual en monitores está
en las 19 pulgadas widescreen, con una resolución de
1440 x 900 píxeles ... y los gamers ya buscan
monitores de 20 o 22 pulgadas (1680 x 1050 píxeles).
Para estos casos, ya estamos hablando de tarjetas de
video de gama media o alta, con 512 o más megabytes
de RAM.
ANTIALlASING y FILTROS
Considerada la importancia de la resolución,
deberemos agregar otros factores que también son
responsabilidad de la placa de video. El primero es el
suavizado de líneas, también llamado antialiasing. Se
trata de un procedimiento incorporado en las placas de
video que les permite eliminar los típicos dientes de
sierra que se forman en los objetos 3D, principalmente
en los bordes.
Hay distintos niveles de antialiasing: 2x, 4, 8x y hasta
16x en las tarjetas de gama alta. Cuanto más alto es el
valor, mayor será el postprocesado que requiera la
imagen, mayor el impacto negativo en la performance
y mejor el resultado visual. El uso de antialiasing es
demandante, sobre todo, en lo que respecta a la
velocidad de la memoria de video. Por esa razón, es
poco recomendable si se tiene video onboard o una
tarjeta gráfica de gama baja, soluciones cuyo punto
más flojo es, justamente, la velocidad de la memoria.
El filtro anisotrópico se encarga de darle nitidez a las
texturas aplicadas sobre objetos 3D, a fin de evitar que
se vean borrosas y con poca profanidad de campo.
Siempre que se utiliza antialising, conviene aplicar
también filtro anisotrópico. Este filtro también exige
poder de proceso en el chip gráfico y su uso se hace
más pausible en las tarjetas de gama media y alta.
SOMBREADO EN DX 9 y DX 10
La mayoría de los juegos que ofrecen alta calidad
visual requieren, hoy en día, como mínimo un unidad
de proceso gráfico compatible con DirecX 9c. Esto es
algo muy fácil de obtener, porque está presente en el
hardware desde las GeForce 6000 o Radeon X800. Sin
embargo, si se quiere experimentar la máxima calidad
visual que permite la tecnología actual, hay que ir por
placas compatibles con DirectX 10. Esto sería:
GeForce 8000 o superior o, por el lado de AMD/AT!.
Radeon HD 3000 o superior.
La diferencia en calidad visual entre los modos DX9 y
DXl O depende mucho de cómo haya sido programado
cada juego en particular. En ciertos casos, la
diferencia es prácticamente imperceptible, mientras
que en otros (que por ahora son los menos) se
aprovecha máximo las posibilidades del hardware
moderno y se puede apreciar una mejora. En todo
caso, conviene saber que nuestra solución gráfica
debe ser compatible con DirectX 10.
ATI VERSUS NVIDIA
Los dos principales fabricantes de chips gráficos
mantienen una durísima competencia y suelen tener
en el mercado modelos de similar desempeño y precio,
que, más o menos, se equiparan. Aunque nunca
ofrecen exactamente el mismo rendimiento, puede
decirse que hay un equilibrio. En la tabla siguiente
podemos observar los principales modelos y sus
contrapartes.
ACELERACIÓN DE FISICAS
Los chips gráficos integrados en las placas de video
reciben el nombre de GPU (Unidad de Procesos
Gráficos) y recientemente han superado a los
procesadores de Intel y AMO en capacidad de cálculo
teorice. Debido a esto, NVIDIA y ATI están
promoviendo la idea de utilizar las GPU para realizar
otro tipo de tareas, aparte de generar los gráficos 3D.
Uno de los trabajos más interesantes para los que se
puede aprovechar el inmenso poder 8e las placas de
video actuales, es la aceleración de cálculos físicos en
un juego. Gracias a la aceleración de físicas, se
pueden generar efectos más precisos y realistas de
ruptura de vidrios, polvo, viento y comportamiento de
los objetos en general. Lo bueno,es que al utilizar la
GPU para acelerar físicas, no sólo se gana en calidad,
sino en performance.
Hoy en día, todas las placas de video de NVIDIA de
serie GeForce 8 y superiores ofrecen la posibilidad de
funcionar como aceleradoras de físicas bajo el
estándar PhysX. Sólo necesitan los drivers
actualizados y, desde luego, un juego que haya sido
programado específica mente para PhysX. En la
actualidad, hay un número limitado pero en aumento
de juegos que suportan PhysX, como Mirrors Edge,
Warmonqer, Unreal Tournamente 3 (actualizado con un
patch).
En cuanto al hardware, se puede utiliza, la misma
placa de video para efectuar la aceleración de físicas y
el rendering 3D o utilizar dos tarjetas separadas (la de
menor performance para físicas).
La compañía AMD / ATI, por su parte, también está
trabajando en el tema y adscribe al estándar de
aceleración de físicas llamado Havok, pero por el
momento no hay juegos que brinden esta capacidad en
las placas Radeon. Recientemente, Intel anunció que
también incluiría soporte para Havok en sus futuras
GPU, así que esta área seguramente crecerá mucho en
el futuro cercano. De hecho, se espera que la
aceleración de físicas se implemente como estándar
dentro del futuro DirectX 11. De esa forma, se evitaría
una inútil guerra de estándares entre PhysX y Havok
(en la que, por el momento, NVIDIA lleva la delantera).
Procesadores
EL MOTOR DE LA PC TIENE UNA IMPORTANCIA
FUNDAMENTAL. AQUÍ VEMOS LAS OPCIONES DE
INTEL Y AMD.
Hoy estamos en la era de lbs pracesadores de
múltiples núcleos. Sin embargo, el software ha tardado
un poco én alcanzar el ritmo del hardwaré.
Recordemos queen 2007 todavía pocos juegos
soportaban pracesadores de doble núcleo. Es decir,
utilizaban sóló 1 núcleo. Después, en 2008, la mayoría
de los títulos (muchos de los cuales todavía están dé
moda)sólo estaban optimizados para chips de 2
núcleos, a pesar de que en mercado los procesadores
Quad Core ya no eran novedad. Recién con la aparición
de GTA IV, que viene preparado para aprovechar al
máximo 2, 3 o 4 núcleos, los pracesadores de 4
núcleos se volvieron deseables para el jugador medio.
Todavía son pocos los juegos diseñados para sacar el
máximo provecho de un chip de cuatro núcleos.
Algunos títulos se pueden mejorar mediante parches
lanzados por sus desarrolladores, pero lo cierto es que
todavía en 2009 un dual core es suficiente para jugar.
Unreal Toumament 3 es otro título cuyo motor acepta
4 núcleos, pero se trata de un juego relativamente
ligero, por lo que con 2 núcleos logra un rendimiento
más que bueno.
LOS CHIPS DE AMD
La línea más económica de procesadores AMD se
llama Semprón y funcionan en motherboards con el
socket AM2 o AM2+ Y DDR2.
Hay chips Sempron de doble núcleo, pero al igual que
el Celeron, se quedan cortos de potencial si piensa
armar una PC para jugar a los últimos juegos durante
un buen tiempo.
"Buenos y baratos" se pueden encontrar procesadores
de doble núcleo Athlon X2, como el modelo 5200+, que
se consigue por alrededor de 75 dólares. y por poco
más se pueden obtener chips como el X2 7750 o el
7850, de 2,7 y 2,8 GHz. Estos chips serían los
equivalentes aproximados a los E5000 y E7000 de
Intel.
AMD es, por el momento, la única compañía que ofrece
procesadores de 3 núcleos: Athlon X3 y Phenom X3.
Constituyen una opción que se ubica en precio y
performance entre los chips de 2 y 4 núcleos.
En la gama más alta de AMD, se encuentran los nuevos
procesadores Phenom II de cuatro núcleos. Hay
variantes de este chip que pueden funcionar tanto con
motherboards que usen memoria DDR2 como DDR3 y
socket AM2+ Y AM3 (Actual). Los Phenom II compiten
a la par contra los chips Core 2 Ouad de alta gama
(entre Q9550 y QX9770).
EL PHENOM II ES EL PROCESADOR MÁS RÁPIDO Y
AVANZADO DE AMD. COMPITE CON LOS INTEL CORE 2
QUAD DE ALTA GAMA.
LA IMPORTANCIA DE LA CACHÉ
Los procesadores más caros y poderosos se suelen
distinguir de los más economicos por dos cuestiones
básicas: la frecuencia de funcionamiento (MHz o GHz)
y la cantidad de memoria caché integrada en el chip.
Para darnos una mejor idea de esto, podemos dar un
vistazo, en la tabla de abajo, a la línea de
procesadores Core 2 Duo de Intel y cómo los modelos
de menor rendimiento tienen una menor cantidad de
caché de segundo nivel (l2). El mismo tipo de
segmentación realiza AMD con sus chips Phenom,
Athlan y Sempron.
Si dos procesadores basados en la misma arquitectura
(digamos, dos Core 2 Duo) funcionan a la misma
frecuencia (por ejemplo, 2 GHz) tendrá mejor
desempeño aquel que tenga mayor cantidad de caché
integrada.
Memoria RAM
DESDE DDR2 HACIA DDR3La industria de los juegos
siempre ha sido demandante en lo que respecta a
memoria RAM. Más allá del tipo que se utilice (que
está directamente relacionado con el modelo de
procesador elegido). lo que nos importa analizar aquí
es cuánta memoria hace falta, realmente, para jugar
con comodidad.
Podemos decir que 2 GB es un buen punto de partida
para cumplir los requerimientos de los juegos
actuales. Pero para los más exigentes, 4 GB se está
convirtiendo en el estándar, sobre todo si utilizan
Vista.
Los usuarios de Core i7, que tiene triple canal de
memoria, optan por 3 GB o hasta 6 GB de RAM. Este
último caso, debemos reconocer, es algo excesivo.
Uno de los beneficios de tener una buena cantidad de
memoria es que se evitan las lecturas de disco
mientras se juega. Así, se minimizan los saltos o
tirones en la acción. La memoria también ayuda mucho
a mejorar la velocidad de inicio de un juego.
ACTUALMENTE ESTAMOS VIVIENDO UNA LENTA
TRANSICIÓN DE DDR2 HACIA DDR3 TANTO INTEL
COMO AMD ESTÁN APOSTANDO AHORA A LA
TECNOLOGÍA MÁS NUEVA.
EL LIMITE DE LOS 3GB
Si usamos Windows XP o Vista de 32 bits, el sistema
no reconocerá más uqe 3 GB de memoria, aunque le
instalemos 4 GB o más. Esto se debe a una limitación
propia de los sistemas de 32 bits. Por eso, si se quiere,
disponer de más memoria, resulta indispensable
utilizar un sistema operativo Windows de 64 bits.
Antes de hacer semejante migración, hay que
asegurarse de conseguir drivers de 64 bits para todos
nuestros componentes y periféricos, porque los de 32
bits no nos servirán. Dispositivos menores, como
adaptadores de red Ethernet o Wi-Fi pueden resultar un
inconveniente en este sentido.
ARMAMOS LA PC DE NUESTROS SUEÑOS Y TAMBIÉN
LA QUE EL BOSILlO NOS PERMITE.
Aquí nos vamos a tomar el atrevimiento de sugerir
distintas configuraciones básicas que consideramos
adecuadas para distintos rangos de precio. Decimos
que estas son computadoras balanceadas y pensadas
para jugar, porque tienen en cuenta un equilibrio entre
los 3 componentes principales (procesador, placa de
video y memoria RAM).
Muchos compradores inexpertos creen que para tener
una computadora poderosa basta con asegurarse un
procesador costoso de 4 núcleos y la mayor cantidad
de memoria que puedan comprar. Pero, como
señalamos al principio de este artículo, en el mundo de
los juegos las placas de video han alcanzado un gran
protagonismo, por lo que hay que tener una visión más
amplia al elegir componentes.
EL GAMER BÁSICO
La configuración que proponemos con este nombre no
es una PC "mínima" para jugar. Es un equipo rápido
que puede ejecutar los juegos más modernos y que lo
podrá seguir haciendo, tranquilamente, por un año o
más tiempo. Desde luego, el jugador deberá ser
cuidadoso con la configuración de los sus juegos, que
generalmente tendrá que jugar en mediana calidad
gráfica para no exigir más de lo que la máquina puede
dar.
El procesador es el AMD Athlon X2 7780, un chip de
doble núcleo y 2,8 GHz capaz de entregar la potencia
de cálculo necesaria hoy en día. El precio de este
micro (U$SS 100). lo convierten en nuestro elegido
cuando el dinero importa. Quienes gusten de Intel,
pude ir por el Pentium E5200, que ofrece un
desempeño similar. Si se busca algo más potente, una
gran opción es el Core 2 Duo E7400, que por ronda los
U$S 170 y, si se animan, ofrece un gran potencial de
overclocking.
La solución gráfica elegida puede ser una GeForce
9600 GT o una Radeon HD 4670. Si bien están en un
nivel similar, la 9600 GT es un poco más rápida y un
poco más costosa que la HD 4670. Pero la Radeon
tiene a su favor que no requiere un conector adicional
de energía, por lo que no necesita una fuente potente
para ser utilizada.
Ambas placas de video se desempeñan bien a
resoluciones de 1440 x 900 píxeles, que es lo que
encontramos en los típicos monitores de 19 pulgadas
Widescreen.
UN EQUIPO INTERMEDIO
Para una PC intermedia, que ya llama la atención por
su potencia, elegimos un procesador de cuatro
núcleos. Sin embargo, bien se podría preferir un chip
de doble núcleo rápido, como el Core 2 Duo E8500.
Como dijimos antes, los juegos recién ahora están
empezando a aprovechar más de dos núcleos.
Los chips elegidos son el Intel Core 2 Quad Q9400
(U$S 299) y el AMD Phenom 11 X4 940 (U$S 270).
Ambos tienen un desempeño muy similar, así que la
elección dependerá mucho del gusto que tengan por
cada marca y la influencia que tenga la diferencia de
precios. Para acompañar estos chips, hemos
aumentado la cantidad de memoria hasta los 4 GB.
En cuanto a la placa de video, encontramos opciones
muy equilibradas de NVIDIA y ATI: La GeForce GTS 250
y la Radeon HD 4850. Usualmente, estos modelos se
consiguen con 1 GB de memoria y proveen la potencia
necesaria para jugar con detalles altos y aplicar filtros
de antialiasing.
LA PC PODEROSA
Esta no es la PC más poderosa que el dinero pueda
comprar, sino una computadora muy rápida en la que
los componentes se han elegido con generosidad pero
sin caer en gastos extremos.
El procesador es el Intel Core i7 920. Este chip de
cuatro núcleos más elegido de la nueva serie Core i7.
Una característica de la arquitectura Core i7 es que se
utiliza triple canal de memoria. Por eso, acompañamos
el procesadar con un kit de RAM conformado por 3
módulos de 2 GB cada uno.
La placa de video puede ser la Radeon HD 4890 de 1
GB o la GeForce GTX 275 de 896 MB. Ambas se ubican
en un plano similar de precio y performance.
Medir el Rendimiento
LOS BENCHMARKS NOS PERMITEN CONOCER EL
VERDADERO DESEMPEÑO DE NUESTRA PC. AQUÍ
RELEVAMOS LAS PRINCIPALES OPCIONES.
Es usual que en revistas especializadas en hardware o
en sitios web encontremos datos que muestran el
desempeño de distintos componentes de la PC. Los
programas que se utilizan para medir y evaluar el
desempeño se llama benchmarks y podemos
ejecutarlos en nuestra PC para comparar su
funcionamiento con el de los productos que muestran
las reviews o con el de las computadoras de nuestros
amigos.
A continuación detallaremos los benchmarks más
adecuados para medir la performance de un equipo.
* 3DMark 06
(http://www.futuremark.com): este es un benchmark
clásico, orientado principalmente a cuantificar el
desempeño de las placas de video. Está subvidivido en
varias pruebas que son escenas en 3D, que se suceden
por un lapso de aproximadamente 10 minutos. Al
finalizar, brinda un puntaje que puede ser comparado
con el obtenido por otras computadoras.
El puntaje 3DMark se subdivide en 3 partes: Shader
Model 2.0, que mide el rendimiento puro de la placa de
video en aplicaciones DirectX 8, Shader Model
3.0/HDR, que evalúa la performance al aplicar efectos
más avan- zados, propios de DirectX 9. Por último, está
el puntaje atribuido al procesa dar de la PC (CPU). El
benchmark de CPU sigue siendo, hoy en día, muy
confiable para comparar distintos procesadores,
debido a que soporta correctamente los chips de
múltiples núcleos y los resultados son bastante
independientes de la placa de video que se tenga
instalada. ¿Por qué elegimos la versión 2006 y no el
más nuevo 3DMark Vantage, publicado en 2008
Vantage requiere una PC poderosa, requiere estar
instalado en Windows Vista y, a diferencia de la
versión 06, su utilidad es muy limitada si no se compra
la licencia. Lo bueno de Vantage es que permite
evaluar el desempeño de los juegos en los modos de
alta calidad provistos por DirectX 10 y también incluye
soporte para aceleración de cálculos de física.
Volviendo a 3DMark 06, se trata de una aplicación
shareware, que puede utilizarse gratuitamente para
realizar pruebas a resolución de 1280 x 1024 píxeles.
Para utilizarlo a otras resoluciones y habilitar opciones
como el antialiasing se debe comprar el número de
serie para activarlo.
audacity
Audacity es una aplicación informática
multiplataforma libre, que se puede usar para
grabación y edición de audio, fácil de usar, distribuido
bajo la licencia GPL.
creative commons
Creative Commons (CC) es una organización no
gubernamental sin ánimo de lucro que desarrolla
planes para ayudar a reducir las barreras legales de la
creatividad, por medio de nueva legislación y nuevas
tecnologías. Fue fundada por Lawrence Lessig,
profesor dederecho en la Universidad de Stanford y
especialista en ciberderecho, que la presidió hasta
marzo de 2008.
prevención infantil
Según una encuesta de la Sociedad Argentina de
Pediatría, la mitad de los chicos en los hogares
encuestados se conecta a diario a Internet, pero en
casi la mitad de los hogares no hay un adulto
supervisando qué hacen en la Red. Además, el 31% de
los padres encuestados no conoce el apodo que usan
los chicos al conectarse, y el 52% no sabe quiénes son
los contactos que tienen sus hijos en el mensajero
instantáneo. Y mientras que en el 90% de los hogares
encuestados las PC tienen antivirus, el 71% de los
padres no activa o no sabe si están activos los filtros
de control parental, que intentan bloquear el acceso a
páginas con contenidos no aptos para menores. La
encuesta fue presentada el jueves último en la Semana
de la Seguridad Informática, organizada por Microsoft.
"Los padres les advierten a los chicos que no hablen
con gente extraña, que no abran la puerta a un
desconocido y controlan lo que los chicos ven por
televisión o leen. Pero cuando se traslada esto a
Internet, muchos padres no se dan cuenta de que
deberían tener el mismo nivel de protección -advierte
el doctor Ariel Melamud, uno de los pediatras que
realizaron la encuesta- y dejan a los chicos solos y
expuestos frente a una PC conectada."
Internet puede parecer un entorno seguro y
controlado, pero la Red arrastra las características
que definen al resto de la sociedad, con cosas
fantásticas y otras que son claramente peligrosas para
los chicos. El mensajero instantáneo, las salas de
chat, el fotolog, el blog, la red social, el foro de
discusión. Parecería que todo lo que allí se pone es
personal y privado, pero si no se toman los recaudos
necesarios, puede ser visible para cualquier interesado
en averiguar más sobre ese chico y acercarse a él.
Y una vez que esos contenidos están on line, su dueño
pierde el control sobre ellos. El problema no está en
que un chico tenga un fotolog, sino en que ese fotolog
puede verlo cualquiera, y (salvo que se configure
correctamente) todos pueden dejar comentarios,
aprovechando el anonimato que proporciona la Red, o
recircular esa foto con extrema sencillez.
"Los padres creen que los chicos están seguros porque
están en casa, pero en realidad están navegando por el
mundo, y es importante que haya un adulto que los
ayude y supervise -explica Teresita Apesteguia,
fundadora del portal infantil Abchicos.com.ar y
directora de la Comisión de Seguridad Infantil de la
Cámara Argentina de Comercio Electrónico-. Desde
2005 trabajamos en este tema, y vemos a chicos que
por inocencia proporcionan muchísima información
sobre ellos y su familia a extraños."
Estas exposiciones involuntarias incluyen, explican los
expertos, poner fotos de la puerta de su casa en su
fotolog, relatar hechos específicos (el colegio al que
van, si se van de vacaciones), avisar públicamente de
reuniones con fecha y dirección, ingresar números de
teléfono en cualquier formulario on line, o juntarse con
amigos que conocieron a través del chat y que, en el
peor de los casos, puede ser un adulto haciéndose
pasar por un niño.
"Los chicos no tienen a los padres o docentes como
referentes idóneos en estos temas, y no los consultan.
Muchos chicos, además, prefieren callar cualquier
problema por miedo a que limiten el uso de la PC. A la
vez, no siempre entienden que Internet es un medio
abierto, y que hay cosas que es mejor no comunicarlas
allí -dice Andrea Urbas, de la Asociación Chicos.net, un
portal infantil que también ofrece charlas sobre el
tema para adultos-. Los padres tienen que tener un rol
más activo, una postura abierta, y generar un diálogo
fluido con los chicos para poder ayudarlos."
"Necesitamos adultos con los ojos abiertos. No hace
falta ser experto en tecnología, pero sí compartir
Internet con los chicos. Estamos a favor de la
tecnología, pero debe existir una visión de adulto que
acompañe al hijo, que sepa distinguir lo bueno de lo
malo que hay en la Red", explica Melamud.
En esto los expertos tienen el mismo mensaje: muchas
veces los chicos saben más que los grandes en
cuestiones de tecnología, pero los padres están
capacitados para aconsejarlos sobre cómo moverse en
la sociedad, y eso no depende de ser expertos en una
determinada herramienta tecnológica, sino de generar
una comunicación entre padres y chicos que les
permita compartir experiencias, como lo hacen con
otra actividad, como el colegio o una reunión con
amigos.
Tips y herramientas
Los expertos aconsejan que se ubique la PC fuera del
cuarto de los chicos, para facilitar su supervisión, y
alentar las consultas con los padres ante una duda. Si
tienen que llenar un formulario on line, lo ideal es que
lo hagan acompañados de un adulto, para verificar qué
información se les pide.
Además del diálogo y la generación de reglas
consensuadas en el uso de la PC, los padres disponen
de freeware para ayudarlos. Ninguno es totalmente
efectivo: los filtros de contenido no son inteligentes,
sino que dependen de palabras clave o una lista de
sitios no permitidos. Además, pueden generar falsos
positivos, bloqueando sitios que son seguros. Aun así,
pueden ser útiles.
Tanto Google ( www.google.com.ar ) como Yahoo (
ar.search.yahoo.com ) o Microsoft (search.live.com )
permiten configurar el buscador para que no ofrezca
resultados con contenidos para adultos, aunque esto
puede ser modificado por cualquier usuario.
la mejor impresora
para imprimir solo blanco y negro el mas bajo costo
operativo se consigue con la HP 4000 (costo por copia
$ 0.05, al 40% covertura grafica) le sigue la HP 5si ( $
0.065 40% covertura grafica) obviamente en tamaño
A4
se utilizaron cartuchos HP alternativos, no reciclados
ni recargados.
Para imprimir a color el costo mas bajo se consigio
con la HP K5400 con un costo irrisorio de $ 0.0012 por
copia A4 con una covertura de 60%, le siguio la Epson
C110 conun costo de $ 0.0015 y por ultimo la Epson
T50 con un costo de $ 0.0017. Esta se utilizaron con
Sistemas continuos de Tinta con tintas de primera
marca.
Y el costo incluye el costo de la impresora mas el
sistema continuo y las tintas que se utilizaron por ca
cantidad de copias que se realizaron, por si no queda
claro las impresora HP K5400 imprimió hasta agotar
los cabezales 118635 copias.
En el formato A3 tanto las Hp 8600 como la Epson
1410 tienen el mismo costo operativo que es de $
0.0032 por copia A4 al 60% de covertura, teniendo mas
prestaciones la Epson por la mayor variedad de
formatos (imprime hasta 1120 mm.) tambien se midio
usando sistemas continuos de tintas y tintas de
primera marca.
tengo que aclarar que las impresoras canon si bien
tienen costos similares, pero las problematicas que
tienen al utilizar sistemas continuos de Tintas las deja
afuera de mi analisis. ya que operativamente se
demora mas en reiniciar los sistemas continuos
cambiar los chips, etc
Bueno este es mi humilde aporte y espero que les sirva
al momento de adquirir una impresora
Actualmente estoy testeando la HP 8000 y La Epson
Stylus Pro 3800
pc para trabajar
requisitos mínimos recomendados.
Placa Base
Placa Base, llamada también tarjeta madre. Es el
componente principal del PC.
Dependiendo de qué placa base elijamos podremos
elegir los demás componentes. (Procesador, memoria,
disco duro).
Así que debe ser una compatible con los tipos de
memorias y procesadores actuales.
Dentro de la placa madre/tarjeta madre el componente
principal es el chipset.
Chipset
El chipset : Este determina los procesadores que serán
soportados por la placa madre así como el tipo de
memoria RAM que será soportado (DDR2, DDR3, etc.)
Algunas placas madres recomendadas son las de
chipset Intel o chipset AMD.
Procesador
Procesadores: Intel Pentium 4, Intel Centrino, Intel
Xeon o Intel Core Duo™ (o compatible).
Para trabajar con 3D a partir del Intel Core Duo o intel
Core 2 Quad que es mucho más potente.
Memoria RAM
Memoria: 1 GB (DDR) de RAM. Puede ser una memoria
económica, no es necesario que tenga una velocidad
muy alta.
DDR, DDR2, DDR3: son los nuevos tipos de memorias
que salieron al mercado, permiten velocidades más
altas.
Para trabajar con 3D basta con 2 o 3 GB en RAM. Aquí
si necesitan buenas velocidades en RAM puesto que el
3D es más pesado.
La velocidad llamada aquí Megahertz (MHz), es
importante para el 3D, ya que es la velocidad a la que
funcionará la memoria. Entre más velocidad más
rápido trabajaran.
Disco Duro
También es necesario tener un buen disco duro ya que
las imágenes son pesadas y requerimos suficiente
espacio para almacenarlas. Disco duro de 160
Gigabytes o mas de capacidad es recomendable. Para
3D de 200 GB en adelante, es importante que sean de
alta velocidad. (SATA / SATA2)
SATA / SATA2: este tipo de discos duros rápidos
permiten una transferencia de datos muy rápida. De
manera que nuestros archivos muy pesados podremos
copiarlos de un lado a otro sin mayor dificultad.
Tarjeta aceleradora de graficos
Tarjeta Grafica/de video: 128 MB de RAM en video.
El video convierte las señales visuales en eléctricas
para mostrarlas en un monitor. Todo sucede tan rápido
que no se nota. La tarjeta grafica tiene la labor de
procesar las imágenes y posteriormente mandarlas al
monitor.
Para 3D una tarjeta de video de 256 de RAM en
adelante.
RSS son las siglas de RDF Site Summary or Rich Site
Summary , un formato XML para sindicar o compartir
contenido en la web. Se utiliza para difundir
información actualizada frecuentemente a usuarios
que se han suscrito a la fuente de contenidos. El
formato permite distribuir contenidos sin necesidad de
un navegador, utilizando un software diseñado para
leer estos contenidos RSS (agregador). A pesar de eso,
es posible utilizar el mismo navegador para ver los
contenidos RSS. Las últimas versiones de los
principales navegadores permiten leer los RSS sin
necesidad de software adicional. RSS es parte de la
familia de los formatos XML desarrollado
específicamente para todo tipo de sitios que se
actualicen con frecuencia y por medio del cual se
puede compartir la información y usarla en otros sitios
web o programas
wiki (o una wiki) (Plantilla:IPAc-en Plantilla:Respell)
(del hawaiano wiki, «hacer las cosas de forma sencilla
y rápida») es un sitio web cuyas páginas pueden ser
editadas por múltiples voluntarios a través del
navegador web. Los usuarios pueden crear, modificar o
borrar un mismo texto que comparten. Los textos o
«páginas wiki» tienen títulos únicos. Si se escribe el
título de una «página wiki» en algún lugar del wiki
entre dobles corchetes (...), esta palabra se convierte
en un «enlace web» a la página wik
audioblog es una variante de weblog o bitácora
que consiste en una galería de ficheros de audios en
diferentes formatos, publicados regularmente por uno
o más autores. El autor puede autorizar a otros
usuarios a añadir comentarios u otros ficheros de
audio dentro de la misma galería.
La Web 1.0 (1991-2003) es la forma más básica
que existe, con navegadores de sólo texto bastante
rápidos como. Después surgió el HTML que hizo las
páginas web más agradables a la vista, así como los
primeros navegadores visuales tales como IE,
Netscape, etc.
La Web 1.0 es de sólo lectura. El usuario no puede
interactuar con el contenido de la página (nada de
comentarios, respuestas, citas, etc), estando
totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y
cualquier página web diseñada con un estilo anterior
del fenómeno de la Web 2.0. Es en general un término
que ha sido creado para describir la Web antes del
impacto de la fiebre punto com en el 2001, que es visto
por muchos como el momento en que el internet dio un
giro.[1]
Es la forma más fácil en el sentido del término Web 1.0
cuando es usada en relación a término Web 2.0, para
comparar los dos y mostrar ejemplos de cada uno.
Web 2.0 (2004–presente) está comúnmente
asociado con un fenómeno social, basado en la
interacción que se logra a partir de diferentes
aplicaciones web, que facilitan el compartir
información, la interoperabilidad, el diseño centrado en
el usuario o D.C.U. y la colaboración en la World Wide
Web. Ejemplos de la Web 2.0 son las comunidades
web, los servicios web, las aplicaciones Web, los
servicios de red social, los servicios de alojamiento de
videos, las wikis, blogs, mashups y folcsonomías. Un
sitio Web 2.0 permite a sus usuarios interactuar con
otros usuarios o cambiar contenido del sitio web, en
contraste a sitios web no-interactivos donde los
usuarios se limitan a la visualización pasiva de
información que se les proporciona.
Web 3.0 es un neologismo que se utiliza para
describir la evolución del uso y la interacción en la red
a través de diferentes caminos. Ello incluye, la
transformación de la red en una base de datos, un
movimiento hacia hacer los contenidos accesibles por
múltiples aplicaciones non-browser, el empuje de las
tecnologías de inteligencia artificial, la web
semántica, la Web Geoespacial, o la Web 3D.
Frecuentemente es utilizado por el mercado para
promocionar las mejoras respecto a la Web 2.0. El
término Web 3.0 apareció por primera vez en 2006 en
un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y
asociado a tecnologías como AJAX. Actualmente
existe un debate considerable en torno a lo que
significa Web 3.0, y cual es la definición acertada.[1
Los diez ultimo gran inventos en el
2010
10. Pantallas flexibles
Probablemente no las veremos en el mercado hasta el
2010, la tecnología ya esta aquí
Con ayuda del ejercito de los Estados Unidos, el
Centro de Pantallas Flexibles de la Universidad del
Estado de Arizona desarrollo durante este año un
prototipo para soldados que esperan sea funcional en
unos 3 años, luego de pruebas y más estudios.
También empresas fuertes como HP y Samsung han
presentado prototipos de cómo podría funcionar y
mejorar la tecnología actual. Periodicos enrollados en
un tubo pueden ser cosa de todos los días en un futuro
no muy lejano…
9. Chips Comestibles
Este avance en el campo de la medicina es muy
prometedor, especialmente para pacientes o casos
donde el medico tratante debe estar muy al tanto
sobre el avance de la enfermedad del paciente. Se han
logrado crear chips comestibles que toman datos en
tiempo real sobre el paciente: qué come, a qué hora,
en que posición, ritmo cardíaco, etc. Luego envían
estos datos por medio de un celular cercano a una
base de datos central que finalmente el medico puede
consultar para conocer el estado del paciente.
8. Speedo LZR
Michael Phelps… No hay necesidad de dar mayor
explicación. Utiliza nuevos materiales junto a sciencia
de la NASA para mejorar las velocidades de
competidores reduciendo la fricción al momento de
nadar, muy impresionante.
7. Memoria Flash
Pero, esa ya esta en el mercado desde hace mucho
tiempo, ¿No? Cierto, lo que sucede es que este año la
vimos ingresar, de manera triunfante, en el mundo del
disco duro. A través de discos de estado sólido (SSD –
Solid State Drives). La gran desventaja es que por el
momento estos discos son demasiado caros pero
seguro dentro de algunos años veremos los precios
bajar significativamente y estos discos estarán al
alcance de nuestro bolsillo.
Las grandes ventajas son en rápidez y confiabilidad de
los datos guardados en ellos. Recordemos que el disco
duro juega un papel importante en nuestra PC.
6. GPS
Aunque la tecnología es muy antigua (70′s)
recientemente ha aparecido por todas partes gracias a
dispositivos como el iPhone 3G y el nuevo G1 de T-
mobile, haciendo que tome un nuevo sentido, ya que
anteriormente era reservado para usos militares.
5. El Memristor
No sucede muy seguido, pero este avance tecnologico
puede cambiar la forma en la que usamos nuestras
computadoras. Casi 37 años después de haber sido
descrito en una serie de ecuaciones matematicas,
investigadores de los laboratorios de HP han probado
que el cuarto elemento en circuitos electronicos es
real. El “memristor” o transistor de memoria, ahora se
une a otros tres elementos: el capacitor, la resistencia
y el inductor.
Este descubrimiento podría hacer posible que las
computadoras “recuerden” el estado de la memoria
aún despues de haber sido apagadas, cosa no posible
con tecnología actual. Esto puede hacer que tengamos
computadoras más eficientes en el futuro,
reemplazando la memoria “DRAM” como la conocemos
probablemente.
4. Cámaras SLR capaces de tomar video
Es cierto, solo pueden tomar unos segundos, pero
anteriormente esta “función” estaba relegada a las
cámaras más economicas debido a la forma que
funcionan los lentes SLR, esperamos ver más cámaras
(actualmente solo hay dos: Nikon D90 y Canon 5D Mark
II) en el futuro no muy lejano haciendo uso de esta
tecnología con mayor capacidad de almacenamiento
de video.
3. USB 3.0
Abrochense los cinturones. USB 3.0 será 10 veces más
rápido que la especificación actual, 2.0. Además y por
si fuera poco, ahora proveerá 900 miliamperios de
energía en lugar de los 100 actuales, haciendo que
dispositivos puedan hacer mejor uso del cable USB
para cargarse fácilmente.
Los detalles fueron afinados finalmente este año y
probablemente veremos dispositivos nuevos durante el
2009 haciendo uso de esta tecnología para transferir
nuestros videos, música y archivos más rápido de lo
que canta un gallo.
2. Android
Android, la nueva plataforma de Google que promete
ser abierta, será una gran competencia para Apple y su
iPhone, así como Microsoft con Windows Mobile. Esto
es bueno, ya que veremos más dispositivos en el
mercado que harán uso de estas tecnologías y por
supuesto dichas tecnologías también tendrán que
estar en constante actualización para poder competir
unas con otras. Se espera una batalla reñida…
El primer dispositivo en usar el sistema operativo para
mobiles, Android, ha sido el G1 de T-Mobile, creado por
HTC. De cualquier manera veremos muchos más
dispositivos usando este sistema operativo durante el
2009.
1. App Store de Apple
Hasta este año, aplicaciones para mobiles erán
dificiles de hacerse llegar al consumidor, pero gracias
a la nueva App Store de Apple, esto es cosa del pasado
(noten que únicamente aplica para el iPhone) y
ademas ha creado un frenesí de otros creadores de
Smartphones (RIM con su blackberry, Microsoft con
Mobile y Google con Android) por crear sus propios
portales de distribución de software.
notebook y netbook
 Por lo general funcionan empleando una batería o
un adaptador que permite tanto cargar la batería
como dar suministro de energía.
 Suelen poseer una pequeña batería que permite
mantener el reloj y otros datos en caso de falta de
energía.
 En general, a igual precio, las notebooks suelen
tener menos potencia que las computadoras de
escritorio, incluso menor capacidad en los discos
duros, menos poder de video y audio, y menor
potencia en los microprocesadores. De todas
maneras, suelen consumir menos energía y son
más silenciosas.
 Suelen contar con una pantalla LCD y un
touchpad.
 En general, cuentan con PC Card (antiguamente
PCMCIA) o ExpressCard para tarjetas de
expansión.
 Existe un tipo de notebooks llamadas netbooks,
que son más pequeñas y más livianas, M 570E
 No hay todavía un factor de forma industrial
estándar para las notebook, es decir, cada
fabricante tiene su propio estilo de diseño y
construcción. Esto incrementa los precios de los
componentes en caso de que haya que
reemplazarlos o repararlos, y hace que resulten
más difíciles de conseguir. Incluso a menudo
existen incompatibilidades entre componentes de
notebooks de un mismo fabricante.
[editar]Netbook
Artículo principal: Netbook
Son una nueva clase de portátiles que eliminan la
unidad de CD, y reducen la potencia de otros
componentes como la tarjeta gráfica, con el fin de
disminuir el tamaño físico de las máquinas (y en
ocasiones el costo), capaces de entrar en el bolsillo
de un pantalón, como en el caso de los VAIO serie P.
Su capacidad de procesamiento es notablemente
menor que las portátiles normales, por eso necesitan
sistemas operativos diseñados específicamente,
además del uso de almacenamiento remoto.
Apple
Es una empresa multinacional estadounidense que
diseña y produce equipos electrónicos y software.2
Entre los productos de hardware más conocidos de la
empresa se cuenta con equipos Macintosh, el iPod y el
iPhone. Entre el software de Apple se encuentran el
sistema operativo Mac OS X, el sistema operativo iOS,
el explorador de contenido multimedia iTunes, la suite
iLife (software de creatividad y multimedia), la suite
iWork(software de productividad), Final Cut Studio (una
suite de edición de vídeo profesional), Logic Studio
(software para edición de audio en pistas de audio),
Aperture (software para editar imágenes RAW), y el
navegador web Safari.
Creadores
Steve Jobs y Steve Wozniak se conocieron en 1971,
cuando un amigo mutuo, Bill Fernandez, presentó a
Wozniak, quien tenía 21 años de edad a Jobs, entonces
de 16 años. Steve Wozniak, a quien le gustaba que le
llamaran Woz, siempre había sentido una gran
atracción por la electrónica en general, diseñando
desde que era pequeño circuitos en papel para
después tratar de optimizarlos al máximo. Dada su
afición por la electrónica, Woz "apadrinaba" a otros
chicos a los que les gustase el tema, como Bill
Fernandez o el mismoSteve Jobs.
Pronto Wozniak empezó a dedicar cada vez más y más
tiempo en construir en papel su propia computadora.
Tras intentos relativamente infructuosos, finalmente
sus esfuerzos dieron como resultado lo que sería la
Apple I. Tras la presentación de su computadora en el
club informático Homebrew Computer Club y asombrar
a sus participantes, Jobs rápidamente vio la
oportunidad de negocio, por lo que empezó a
promocionar la computadora entre otros aficionados
de la informática del Homebrew Computer Club y otras
tiendas de electrónica digital.
Al poco tiempo empezaron a recibir pequeños
encargos de computadoras que construían ellos
mismos con máquinas hechas a mano, llegando a
vender unos 200 ejemplares de su máquina Apple I. Se
les unieron más amigos, pero las prestaciones del
Apple I eran limitadas, así que empezaron a buscar
financiación. Finalmente Jobs conoció a Mike
Markkula, que accedió a invertir, creándose así el 1 de
abril de 1976, Apple Computer.
En total, se produjeron y se vendieron alrededor de
doscientas unidades a 500 dólares la unidad, pero el
éxito fue tal que no pudieron dar abasto con tanta
demanda. Las características del Apple I eran
limitadas por el poco dinero del que disponían Jobs y
Wozniak. De hecho, para construir el prototipo, Jobs
tuvo que vender su camioneta y Woz su calculadora
programable HP.
Sede
Cupertino, California, Estados Unidos
La empresa opera más de 300 tiendas propias en
nueve países, miles de distribuidores (destacándose
los distribuidores premium o Apple Premium Resellers)
y una tienda en línea (disponible en varios países)
donde se venden sus productos y se presta asesoría
técnica.
Google
Google Inc. es la empresa propietaria de la marca
Google, cuyo principal producto es el motor de
búsqueda del mismo nombre. Dicho motor es resultado
de la tesis doctoral de Larry Page y Sergey Brin (dos
estudiantes de doctorado en Ciencias de la
Computación de la Universidad de Stanford) para
mejorar las búsquedas en Internet. La coordinación y
asesoramiento se debieron al mexicano Héctor García
Molina, director por entonces del Laboratorio de
Sistemas Computacionales de la misma Universidad de
Stanford.3 Partiendo del proyecto concluido, Page y
Brin fundan Google Inc. el 4 de septiembre de 1998.
Este motor de búsqueda superó al otro más popular de
la época, AltaVista, que había sido creado en 1995.
Aunque su principal producto es el buscador, la
empresa ofrece también entre otros servicios: un
comparador de precios llamado Google Product Search
(antes conocido como "Froogle"), un motor de
búsqueda para material almacenado en discos locales
(Google Desktop Search), un servicio de correo
electrónico llamado Gmail, su mapamundi en 3D
Google Earth o un servicio de mensajería instantánea
basado enXMPP llamado Google Talk.
Actualmente Google está trabajando en nuevos
proyectos como la PC de 100 dólares,4 un nuevo
sistema operativo,5 Google Docs & Spreadsheets,
colaboración6y promoción de aplicaciones de software
libre como Firefox,7 instalación de varias redes
inalámbricas gratuitas,8 desarrollo de un sistema de
protocolo abierto de comunicación por voz9 entre
otros. Además se especula que estaría trabajando en
el desarrollo de un "Google Office"10 y una red global
de fibra óptica.11
Sede
Mountain View, CA, Estados Unidos
Microsoft
Microsoft Corporation (NASDAQ: MSFT) es una
empresa multinacional de origen estadounidense,
fundada en 1975 por Bill Gates y Paul Allen. Dedicada
al sector de lainformática, con sede en Redmond,
Washington, Estados Unidos. Microsoft desarrolla,
fabrica, licencia y produce software y equipos
electrónicos. Siendo sus productos más usados el
sistema operativo Microsoft Windows y la suite
Microsoft Office, los cuales tienen una importante
posición entre los ordenadores personales. Con una
cuota de mercado cercana al 90% para Office en 2003
y para Windows en el 2006. Siguiendo la estrategia
deBill Gates de "tener una estación de trabajo que
funcione con nuestro software en cada escritorio y en
cada hogar".4 5 6 7 8 9 10 11 12
Sede
Redmond, Washington, Estados Unidos
Creadores
 Bill Gates
 Fundador
 Paul Allen
 Fundador
 Steve Ballmer
 Ejecutivo principal
software libre
El software libre (en inglés free software, esta
denominación también se confunde a veces con gratis
por el doble sentido delinglés free en castellano) es la
denominación del software que respeta la libertad de
los usuarios sobre su producto adquirido y, por tanto,
una vez obtenido puede ser usado, copiado, estudiado,
cambiado y redistribuido libremente. Según la Free
Software Foundation, el software libre se refiere a la
libertad de los usuarios para ejecutar, copiar,
distribuir, estudiar, modificar el software y distribuirlo
modificado.
El software libre suele estar disponible gratuitamente,
o al precio de costo de la distribución a través de otros
medios; sin embargo no es obligatorio que sea así, por
lo tanto no hay que asociar software libre a "software
gratuito" (denominado usualmentefreeware), ya que,
conservando su carácter de libre, puede ser distribuido
comercialmente ("software comercial").
Análogamente, el "software gratis" o "gratuito" incluye
en ocasiones el código fuente; no obstante, este tipo
de software no es libre en el mismo sentido que el
software libre, a menos que se garanticen los
derechos de modificación y redistribución de dichas
versiones modificadas del programa.
Tampoco debe confundirse software libre con
"software de dominio público". Éste último es aquel
software que no requiere de licencia, pues sus
derechos de explotación son para toda la humanidad,
porque pertenece a todos por igual. Cualquiera puede
hacer uso de él, siempre con fines legales y
consignando su autoría original. Este software sería
aquel cuyo autor lo dona a la humanidad o cuyos
derechos de autorhan expirado, tras un plazo contado
desde la muerte de este, habitualmente 70 años. Si un
autor condiciona su uso bajo una licencia, por muy
débil que sea, ya no es del dominio público.
proteccion infantil
Hoy, día 10 de Febrero, es el día de la seguridad en
Internet y sobre todas las cosas importantes que
proteger, en la cúspide de la pirámide, se encuentran
los niños. Internet ha revolucionado el mundo, el
mundo de todos. Los conocimientos que nos llegan por
medio de la red son casi ilimitados, así como la
comodidad que nos ofrece al permitirnos realizar
compras, contactar con estamentos oficiales, etc., han
hecho que la vida sea diferente. Pero como si Internet
fuera un enorme cubo los hay que lo usan para volcar
su basura y esta nos salpica a todos, es en este punto
donde debemos proteger a los niños: Hoy por hoy
existen múltiples programas de protección parental
que limitan la navegación por Internet, impidiendo que
se visiten ciertas páginas y que los más pequeños
puedan tener acceso a contenidos peligrosos. En
PortalProgramas podéis encontrar muchos programas
de este tipo, de entre ellos os mostramos algunos: 1.-
Amigo Control Parental
Este programa tiene como objetivo fundamental el
proteger a los más pequeños de la casa a la hora de
emplear el ordenador, así como ayudar a los padres y
educadores en la educación de los mismos. Se trata de
un programa que aplica técnicas parentales
mejoradas, para la protección de nuestros hijos de
factores externos, limitando ciertos contenidos de
internet poco recomendables, limitando actividades
siempre de forma personalizable, etc. Descargar
Descargar Amigo Control Parental Desarollador:
Aconfi, S.L. 2.- Parental
Esta aplicación no está diseñada para espiar los
movimientos del niño, sino para educarlo en el ámbito
del autocontrol y la confianza con los padres. De esta
forma, se le asegura su privacidad, pero se le obliga a
seguir unas normas para el tiempo de uso del
ordenador. Parentalse encarga automáticamente de
hacer todo esto indicando el tiempo restante de uso de
la máquina y apagándola cuando el tiempo se acaba.
Descargar Descargar Parental Desarollador: Parental
3.-Control Kids
Control Kids es un filtro parental que restringe la
navegación en Internet a sitios para adultos o
pornográficos. El programa prohíbe el acceso a sitios
considerados peligrosos para los niños y adolescentes
gracias a diferentes filtros. Esta aplicación esta
desarrollada para añadirse a la seguridad que tengas
instalada en tu ordenador para prevenir que tus hijos
se vean afectados por contenidos realmente
peligrosos que pueden alterar su comportamiento
natural. DescargarDescargar Control Kids
Desarollador: Esther Susano Proxym 4.- nysBlock
Hogar [caption id="attachment_3219"
align="aligncenter" width="453" caption="Control por
medio de contraseña"]
[/caption] nysBlock Hogar es un software de bloqueo
de programas inseguros y peligrosos. El programa esta
instalado en un servidor y en cada uno de los clientes
asociados a la red local. nysBlock posee cuatro listas
negras de bloqueo: - Sistema: Esta lista es para
bloquear funciones de Windows, tales como:
 Firewall de Windows
 Panel de control
 Utilidad de configuración del sistema (msconfig)
 Editor de Registro (regedit)
 Administrador de tareas de Windows
- Chat: Lista con bloqueos para programas de Chat,
algunos de los más conocidos son:
 MSN Messenger
 Digsby
 Trillian
 ICQ
 Yahoo! Messenger
Y páginas Web que buscan el mismo fin:
 meebo
 webmessenger
 igoogle
 latinchat
- P2P: Lista con programas para bajar música,
películas, programas, y otros:
 Ares
 Kazaa
 EMule
 UTorrent
 Chilewarez
- Contenido Ocioso: Lista con expresiones que hacen
perder el tiempo del usuario en horario de trabajo,
entre ellos encontramos:
 Fotolog
 Facebook
 Radio online
 Juegos
 Pornografía
 YouTube
Todas las listas son configurables para grupos de
usuarios o solamente un usuario y van aumentando al
incorporarse nuevos conceptos. Descargar Descargar
nysBlock HogarDesarollador: technys 5.- Aobo
BlockerAobo Blocker bloquea sitios web no deseados y
filtrar sitios web porno. Posee un eficaz y eficiente
algoritmo de filtrado para bloquear todos los sitios
pornograficos. Entre sus principales características
podemos destacar:
 Bloque de sitios web no deseados por URL o
palabras clave
 Bloque sitios web porno automáticamente antes
de que se carguen en los navegadores.
 Bloqueo de visitando sitios web visitados no
deseados con proxies web
 Trabaja con todos los navegadores web populares
 Se ejecutar en modo indetectable
 Protegido por contraseña
Cómo montar una red Wi-Fi en casa
por José Julio Ruiz | 10-Agst-2004
Comenzamos una serie de tutoriales sobre Bluetooth y
Wi-Fi (Wireless Fidelity) es i-Fi. En esta prim.
Introducción una de las tecnologíera entrega veremos
cómo montar una red 802.11 en casa y aclararemos
algunos conceptos.1as de comunicación inalámbrica
(sin cables - wireless) más extendidas. También se
conoce como WLAN o como IEEE 802.11Los
subestándares de Wi-Fi que actualmente más se están
explotando en el ámbito comercial son:
- 802.11b:
· Pionero en 1999 y actualmente el más extendido.
· Opera en la banda de los 2.4 GHz.
· Alcanza una velocidad máxima de 11 Mb/sg.
- 802.11g:
· Estrenado en 2003
· Opera en la banda de los 2.4 GHz.
· Alcanza una velocidad máxima de 54 Mb/sg.
Cuando compremos nuestro hardware Wi-Fi debemos
fijarnos para qué subestándar fue diseñado, porque de
nada nos sirve tener un Access Point .11b (11 Mb/sg) y
un accesorio Wi-Fi .11g (54 Mb/sg) ya que de todas
maneras nos estaremos conectando a 11 Mb/sg.
2. Conceptos básicos:
Repasemos la terminología que usaremos en este y
otros futuros tutoriales:
Access Point: (Punto de Acceso o AP)Es el dispositivo
que hace de puente entre la red cableada y la red
inalámbrica. Podemos pensar que es, de alguna
manera, la antena a la que nos conectaremos.
Accesorio Wi-Fi:
Es el accesorio adicional que usaremos para incoporar
el estándar 802.11 a nuestro equipo (PDA, ordenador
portátil o de sobremesa), en caso de no tener Wi-Fi
integrado.
Estos accesorios pueden encontrarse en formato de
tarjetas PCMCIA (para portátil), PCI y USB (para
ordenador de sobremesa) y esperamos que muy pronto
en formato SD (Secure Digital) para nuestros PDAs
Palm OS.
Dirección IP: (IP Address)
Una dirección IP es una serie de números que
identifica a nuestro equipo dentro de una red.
Distinguimos entre IP pública (ej. 80.20.140.56),
cuando es la dirección que nos identifica en Internet
(por ejemplo la IP de tu router ADSL en Internet) e IP
privada (ej. 192.168.0.2 ), que es la dirección que
identifica a un equipo dentro de una red local (LAN).
Si, por ejemplo, pensamos en una red local con un
router ADSL, los PCs o equipos conectados a la red
tendrán sólo IP privada, mientras que el router tendrá
una IP pública (su identificación en Internet) y una IP
privada (su identificación en la red local).
Máscara de subred: (Subnet address)
Cifra de 32 bits que especifica los bits de una
dirección IP que corresponde a una red y a una subred.
Normalmente será del tipo 255.255.255.0
Puerta de enlace: (Gateway)
Es la dirección IP privada de nuestro router.
Servidores DNS: (DNS server)
Las páginas web también tienen su dirección IP
pública y es a través de ésta dirección como en
realidad nos conectamos a ellas. Pero claro, es más
sencillo memorizar o escribir el nombre del dominio
(www.google.es) que su dirección IP (216.239.59.104).
Para no memorizar la retahíla de números tenemos los
servidores DNS. Un servidor DNS es un servidor en
donde están almacenadas las correlaciones entre
nombres de dominio y direcciones IP.
Cada vez que cargamos una página web, nuestro
equipo (PDA, portátil u ordenador de sobremesa) envía
una petición al servidor DNS para saber la dirección IP
de la página que queremos cargar, y es entonces
cuando hace la conexión.
Probablemente estaréis familiarizados con eso de
"servidor DNS primario" y "servidor DNS secundario".
El primario es el "principal" y el secundario es el de
emergencia que usará nuestro ordenador en caso de
que el primario no funcione.
WEP: (Wired Equivalent Privacy)
Es el tipo de encriptación que soporta la tecnología Wi-
Fi. Su codificación puede ir de 64 bits hasta 128 bits.
WEP está deshabilitado por defecto.
SSID: (Service Set Identification)
Nombre con el que se identifica a una red Wi-Fi. Este
identificador viene establecido de fábrica pero puede
modificarse a través del panel de administración del
Punto de Acceso.
DHCP:
Tecnología utilizada en redes que permite que los
equipos que se conecten a una red (con DHCP
activado) auto-configuren los datos dirección IP,
máscara de subred, puerta de enlace y servidores DNS,
de forma que no haya que introducir estos datos
manualmente.
Por defecto la mayoría de los routers ADSL y los
Puntos de Acceso tienen DHCP activado.
Dirección MAC: (MAC address - Media Access Control
address)
Es el código único de identificación que tienen todas
las tarjetas de red. Nuestro accesorio Wi-Fi o nuestro
PDA con Wi-Fi integrado, al ser un dispositivo de red,
también tendrá una dirección MAC única.
Las direcciones MAC son únicas (ningún dispositivo de
red tiene dos direcciones MAC iguales) y permanentes
(ya que vienen preestablecidas de fábrica y no pueden
modificarse).
Infraestructura:
Modo de conexión en una red wireless que define que
nuestro equipo (PDA, portátil u ordenador de
sobremesa) se conectará a un Punto de Acceso. El
modo de conexión deberá de especificarse en la
configuración de nuestro equipo o del accesorio Wi-Fi.
Por defecto viene activado este modo.
Ad-Hoc: (Punto a Punto)
Modo de conexión en una red wireless que define que
nuestro equipo (PDA, ordenador portátil o de
sobremesa) se conectará directamente a otro equipo,
en vez de hacerlo a un Punto de Acceso.
Ad-Hoc es una forma barata de tener conexión a
Internet en un segundo equipo (por ejemplo un PDA)
sin necesidad de comprar un Punto de Acceso. Para
este uso la configuración se dificulta ya que tenemos
que configurar en el ordenador que tiene la conexión a
Internet un programa enrutador o una conexión
compartida.
3. ¿Qué necesito para montar una red Wi-Fi en casa?
La mejor configuración es partir de una conexión ADSL
con router, aunque también podremos montar una red
Wi-Fi en casa a partir de otras configuraciones (cable,
etc.).
Si ya contamos con esto, necesitaremos además:
 Punto de Acceso Wi-Fi.
 Si nuestro ordenador o portatil no incluye WiFi,
necesitaremos un accesorio que nos de este tipo
de conectividad.
4. Configuración del Access Point
La forma de ajustar los siguientes parámetros
dependerá de los fabricantes, así que hablaré de ellos
genéricamente.
1. Sacar el AP de su caja y conectarlo a la red
eléctrica con el alimentador incluido en la caja.
2. Conectar el AP al router ADSL con el cable cable de
red del AP (también incluido en la caja).
3A. Si tenéis DHCP activado en el router ADSL en
principio no habrá que configurar ningún parámetro
adicional en el AP.
5. Configuración de nuestro equipo
La configuración de un PDA Palm OS lo veremos en
detalle en un próximo tutorial. Para conectar un
ordenador portátil o de sobremesa, consulta el manual
de usuario para información detallada de la
configuración.
Lo más normal es que tengáis una herramienta de
gestión de la conexión Wi-Fi, incluida con el accesorio,
donde podáis configurar los parámetros necesarios,
así como ver la potencia de la señal.
Si tenéis DHCP activado sólo tendréis que abrir este
programa, escanear las redes disponibles, seleccionar
la vuestra y conectaros a ella. La configuración se
realizará automáticamente.
Si tenéis DHCP desactivado tendréis que establecer
manualmente la dirección IP de vuestro equipo, la
puerta de enlace, la máscara de subred y los
servidores DNSs. Después de hacer esto abrid el
programa de configuración de Wi-Fi de vuestro equipo
o del accesorio que hayáis instalado y seguíd los
pasos del párrafo anterior.
6. Consideraciones y consejos sobre alcance y
cobertura
El alcance de la señal de nuestra red Wi-Fi dependerá
de:
 La potencia del Punto de Acceso.
 La potencia del accesorio o dispositivo Wi-Fi por
el que nos conectamos.
 Los obstáculos que la señal tenga que atravesar
(muros o metal).
 Cuanto más lejos (linealmente) quieras llegar, más
alto deberás colocar el Punto de Acceso. Muchos
de los actuales APs vienen preparados para
poderlos colgar en la pared.
Si quieres llegar lejos, evita también interferencias
como microondas o teléfonos inalámbricos.
Si la señal te llega debilitada, utiliza un amplificador
de señal o si es posible, monta una nueva antena de
más potencia al AP (los Puntos de Acceso de gama
baja NO lo permiten) o una antena exterior al
accesorio (normalmente sólo para formatos PCMCIA o
PCI).
En próximos tutoriales veremos cómo configurar
nuestro PDA para acceder a una red Wi-Fi, así como el
tipo de cosas que podemos hacer con nuestro
ordenador de bolsillo wireless.
tipos de pc
Ahora el uso de la computadora es muy común, tanto
en empresas, negocios y algunos hogares.
Pero cuando personas relacionadas con las antes
mencionadas interactúan con la computadora la
mayoría de las veces solo piensan que todas las
computadoras son del mismo tipo.
Además que quieren tener mas información acerca de
las computadoras y no saben ?los tipos de
computadoras que existen? y esto es una limitante
para que las personas, que interactúan con ellas,
sepan acerca de la computación
Las computadoras se clasifican en súper
computadoras, macro computadoras o mainframes,
mini computadoras y micro computadoras o PC.
Las clasificaciones contienen un cierto tipo de
computadoras con características especificas.
Supercomputadoras
Una supercomputadora es le tipo de computadora más
potente y más rápido que existe en un momento dado.
Estas maquinas están diseñadas para procesar
enormes cantidades de información en poco tiempo y
son dedicadas a una tarea especifica.
Un ejemplo de súper computadora es una computadora
que se utiliza para el manejo de un grupo de maquinas
ensambladoras de productos metálicos.
Macrocomputadoras o mainframes
Las macro computadoras son también conocidas como
mainframes. Los mainframes son grandes, rápidos y
caros sistemas que son capaces de controlar cientos
de usuarios simultáneamente, así como cientos de
dispositivos de entrada y salida.
De alguna las mainframes son más poderosos que las
súper computadoras porque soportan mas programas
simultáneamente. Pero las súper computadoras
pueden ejecutar un solo programa más rápido que
mainframe.
En el pasado las mainframes ocupaban cuartos
completos hasta pisos enteros de algún edificio, hoy
en día, un mainframe es parecido a una hilera de
archiveros en algún cuarto con piso falso, esto para
ocultar los cientos de cables de los periféricos, y su
temperatura tiene que estar controlada.
Mini computadoras
En 1960 surgió la mini computadora, una versión más
pequeña de la macrocomputadora. Al ser orientada a
tareas especificas, no necesitaba de todos los
periféricos que necesita un mainframe, y esto ayudo a
reducir el precio y costo de mantenimiento.
Las mini computadoras, en tamaño y poder de
procesamiento, se encuentran entre los mainframes y
las estaciones de trabajo. En general, una mini
computadora, es un sistema multiproceso (varios
procesos) capaz de soportar de 10 hasta 200 usuarios
simultáneamente. Actualmente se usan para
almacenar grandes bases de datos, y otras
aplicaciones.
Micro computadoras o PC
Las microcomputadoras o computadoras personales
(PC) tuvieron su origen con la creación de los
microprocesadores. Un microprocesador es una
computadora en un chip, o sea un circuito integrado
independiente. Las PC son computadoras para uso
personal y relativamente son baratas y actualmente se
encuentran en las oficinas, escuelas y hogares.
importancia del atube catcher
Es bastante bueno cumpliendo su cometido: descargar
y convertir videos de Webs. Solo le pongo la pega de
ser algo lioso para alguien que no quiere complicarse
demasiado. Para las occiones avanzadas hay que
saber algo de ingles y cuidado con que marcais en la
instalación.
Lo mejor:
Hace bien su trabajo.
Instalación rapida y simple.
Libertad de elegir entre bastantes formatos.
Lo peor:
En la instalación te intentan colar mas programas de lo
debido.
Si no tienes demasiadas nociones sobre formatos
puede llegar a ser complicado.
En opciones avanzadas hay que saber algo de ingles.
smartphone
Smartphone (teléfono inteligente en español) es un
término comercial para denominar a un teléfono móvil
con características similares a las de un ordenador
personal. Casi todos los teléfonos inteligentes son
móviles que soportan completamente un cliente de
correo electrónico con la funcionalidad completa de un
organizador personal. Una característica importante de
casi todos los teléfonos inteligentes es que permiten la
instalación de programas para incrementar el
procesamiento de datos y la conectividad. Estas
aplicaciones pueden ser desarrolladas por el
fabricante del dispositivo, por el operador o por un
tercero. El término "Inteligente" hace referencia a
cualquier interfaz, como un teclado QWERTY en
miniatura, una pantalla táctil, o simplemente el
sistema operativo móvil que posee, diferenciando su
uso mediante una exclusiva disposición de los menúes,
teclas, atajos, etc.
El completo soporte al correo electrónico parece ser
una característica indispensable encontrada en todos
los modelos existentes y anunciados en 2007, 2008,
2009 y 2010. Casi todos los teléfonos inteligentes
también permiten al usuario instalar programas
adicionales, normalmente inclusive desde terceros,
pero algunos vendedores gustan de tildar a sus
teléfonos como inteligentes aun cuando no tienen esa
característica. Algunos ejemplos de teléfonos
denominados inteligentes son: Serie MOTO Q de
Motorola, Nokia series E y series N, BlackBerry, iPhone
y Nexus One.
Entre otras características comunes está la función
multitarea, el acceso a Internet via WiFi, a los
programas de agenda, a una cámara digital integrada,
administración de contactos, acelerometros y algunos
programas de navegación así como ocasionalmente la
habilidad de leer documentos de negocios en variedad
de formatos como PDF y Microsoft Office.
Inmuniza tu PC contra los virus
mas conocidos de USB
Este post es para todos aquellos que quieran intentar
algo diferente para defenderse de los famosos virus
memorias USB. Esta técnica es una recopilación de
varias en internet, modificadas y mejoradas, con las
siguientes ventajas:
- NO necesitas antivirus ni programas (más memoria
RAM para tu windows).
- Puedes usarla al tiempo que tu antivirus (yo no tengo
antivirus, pero igual).
- Gratis, legal (sin piratear nada), puedes aplicarlo
donde quieras sin internet.
PASOS:
A) Deshabilitar el autorun.inf
Esto evitará que corran los virus de memorias USB.
Cuando insertes una memoria USB con virus, esta no
va a poder abrirse, excepto si haces click derecho en
laUnidad>Explorar.
1. Dirígete a Inicio, y haz click en Ejecutar.
2. Escribe gpedit.msc y dale al botón aceptar.
3. Se abrirá una ventana titulada Directiva de Grupo.
Ahí, en el panel izquierdo, dirígete a Configuración
local de equipo > Plantillas administrativas > Sistema.
4. Ahora, en el panel de la derecha, verás que existe
una serie de reglas que no están configuradas. Búsca
la que diga "Desactivar reproducción automática", y
haz doble click sobre ella.
5. En "Propiedades", selecciona la opción "habilitada"
y en donde dice"Desactivar reproducción automática
en" selecciona "Todas las unidades".
6. Puedes cerrar la ventana.
B) Inmunizar TODAS tus memorias USB
Esto evitará que muchos virus contagien tus memorias
(no es infalible, pero la mayoría de los virus serán
incapaces de meterse). Es un método casero.
1. En el explorador de windows, abrir tu memoria USB
(asegúrate que no tenga virus).
2. Crea una carpeta llamada "autorun.inf".
3. Click derecho en la carpeta -> "Propiedades".
4. habilita las casillas que dicen "Solo lectura" y
"Oculto".
5. Click en Aceptar.
6. (Opcional) Crear un archivo llamado "recylcler" a
secas, y hacerle lo mismo que al directorio autorun.inf.
Con esto muchos virus no podrán crear su "autorun.inf"
en dicha memoria. Para que sea mas facil, puedes
guardar una copia de dicha carpeta en alguna parte de
tu disco duro, y cada memoria que te pasen
simplemente copias la carpeta y pegas en la memoria
USB.
C) Evitar que corran ejecutables de virus conocidos
Con esto evitaremos que ciertos archivos .exe puedan
correr en el sistema. Esto es util porque he notado que
los víruses de memorias USB se repiten mucho (
tecnologia de los monitores
Monitor VGA: Los monitores
VGA por sus siglas en inglés “Video Graphics Array”,
fue lanzado en 1987 por IBM. A partir del lanzamiento
de los monitores VGA, los monitores anteriores
empezaban a quedar obsoletos. El VGA incorporaba
modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en
las tarjetas gráficas, los monitores anteriores no son
compatibles a los VGA, estos incorporan señales
analógicas.
Características:
 Soporte de 720×400 píxeles en modo texto.
 Soporte de 640×480 píxeles en modo gráfico con
16 colores.
 Soporte de 320×200 píxeles en modo gráfico con
256 colores.
 Las tarjetas gráficas VGA estándares
incorporaban 256 KB de memoria de vídeo.
Monitor SVGA: SVGA
denominado por sus siglas en inglés “Super Video
Graphics Array”, también conocidos por “Súper
VGA”. Estos tipos de monitores y estándares
fueron desarrollados para eliminar
incompatibilidades y crear nuevas mejoras de su
antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar
mayores resoluciones que el VGA. Este estándar
cuenta con varias versiones, los cuales soportan
diferentes resoluciones.
Características:
 Resolución de 800×600, 1024_768 píxeles y
superiores.
 Para este nuevo monitor se desarrollaron
diferentes modelos de tarjetas gráficas como: ATI,
GeForce, NVIDIA, entre otros.
 Clasificación según tecnología de monitores
 En cuanto al tipo de tecnología los monitores se
pueden clasificar en varios aspectos. Estas
evoluciones de la tecnología han sido llevadas a
cabo en parte por el ahorro de energía, tamaño y
por brindar un nuevo producto en el
mercado.Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en
inglés “Cathode Ray Tube”. Es el más conocido,
fue desarrollado en 1987 por Karl Ferdinand
Braun.
 Utilizado principalmente en televisores,
ordenadores, entre otros. Para lograr la calidad
que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se
realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica
horizontalmente a lo largo de la pantalla, una línea
por vez. La amplitud de dicha señal en el tiempo
representa el brillo instantáneo en ese punto de la
pantalla.
Una amplitud nula, indica que el punto de la
pantalla que se marca en ese instante no tendrá
representando un píxel negro. Una amplitud
máxima determina que ese punto tendrá el máximo
brillo.
Ventajas:
 Excelente calidad de imagen (definición,
contraste, luminosidad).
 Económico.
 Tecnología robusta.
 Resolución de alta calidad.
Desventajas:
 Presenta parpadeo por el refrescado de imagen.
 Consumo de energía.
 Generación de calor.
 Generación de radiaciones eléctricas y
magnéticasAlto peso y tamaño. Pantallas LCD:
A este tipo de tecnología
se le conoce por el nombre de pantalla o display
LCD, sus siglas en inglés significan “Liquid Crystal
Display” o “Pantalla de Cristal Líquido” en
español. Este dispositivo fue inventado por Jack
Janning.Estas pantallas son incluidas en los
ordenadores portátiles, cámaras fotográficas,
entre otros.
Angulo limitado de visibilidad.
Brillo limitado.
 Bajo tiempo de respuesta de píxeles.
 Contiene mercurio.
Pantallas Plasma: La
pantalla de plasma fue desarrollada en la
Universidad de Illinois por Donald L. Bitzer y H.
Gene Slottow.
Originalmente los paneles eran monocromáticos.
En 1995 Larry Weber logró crear la pantalla de
plasma de color. Este tipo de pantalla entre sus
principales ventajas se encuentran una la mayor
resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de
plasma consiste en iluminar pequeñas luces
fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como
las lámparas fluorescentes, en que cada píxel es
semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla
está formado por una pequeña celda estanca que
contiene un gas inerte (generalmente neón o
xenón). Al aplicar una diferencia de potencial entre
los electrodos de la celda, dicho gas pasa al
estado de plasma.
El gas así cargado emite radiación ultravioleta
(UV) que golpea y excita el material fosforescente
que recubre el interior de la celda. Cuando el
material fosforescente regresa a su estado
energético natural, emite luz visible.
Ventajas:
 Excelente brillo.
 Alta resolución.
 Amplio ángulo de visión.
 No contiene mercurio.
 Tamaño de pantalla elevado.
Desventajas:
 Vida útil corta.
 Coste de fabricación elevado, superior a los LCD.
 Consumo de electricidad elevado.
 Poca pureza del color.
 Consumo energético y emisión de calor elevada.
¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima
resolución de imagen) que puede ser mostrada en
la pantalla. Viene dada por el producto de las
columnas (“X”), el cual se coloca al principio y el
número de filas (“Y”) con el que se obtiene una
razón. Por ejemplo podemos encontrar:
Los monitores han evolucionado conjuntamente
con las tarjetas de vídeos. La necesidad de
mostrar resoluciones mayores, con alta calidad de
colores, ha llevado día a día a su desarrollo
tipos de microprocesadores
 2006: INTEL CORE Y CORE 2 DUO
Intel lanzó ésta gama de procesadores de doble núcleo
y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos
con el conjunto de instrucciones x86-64, basado en el
la nueva arquitectura Core de Intel. La
microarquitectura Core regresó a velocidades de CPU
bajas y mejoró el uso del procesador de ambos ciclos
de velocidad y energía comparados con anteriores
NetBurst de los CPUs Pentium 4/D2 La
microarquitectura Core provee etapas de
decodificación, unidades de ejecución, caché y buses
más eficientes, reduciendo el consumo de energía de
CPUs Core 2, mientras se incrementa la capacidad de
procesamiento. Los CPUs de Intel han variado muy
bruscamente en consumo de energía de acuerdo a
velocidad de procesador, arquitectura y procesos de
semiconductor, mostrado en las tablas de disipación
de energía del CPU. Esta gama de procesadores fueron
fabricados de 65 a 45 nanómetros.
 2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro
Devices (AMD) a la primera generación de
procesadores de tres y cuatro núcleos basados en la
microarquitectura K10. Como característica común
todos los Phenom tienen tecnología de 65 nanómetros
lograda a través de tecnología de fabricación Silicon
on insulator (SOI). No obstante, Intel, ya se encontraba
fabricando mediante la más avanzada tecnología de
proceso de 45 nm en 2008. Los procesadores Phenom
están diseñados para facilitar el uso inteligente de
energía y recursos del sistema, listos para la
virtualización, generando un óptimo rendimiento por
vatio. Todas las CPUs Phenom poseen características
como controlador de memoria DDR2 integrado,
tecnología HyperTransport y unidades de coma
flotante de 128 bits, para incrementar la velocidad y el
rendimiento de los cálculos de coma flotante. La
arquitectura Direct Connect asegura que los cuatro
núcleos tengan un óptimo acceso al controlador
integrado de memoria, logrando un ancho de banda de
16 Gb/s para intercomunicación de los núcleos del
microprocesador y la tecnología HyperTransport, de
manera que las escalas de rendimiento mejoren con el
número de núcleos. Tiene caché L3 compartida para
un acceso más rápido a los datos (y así no depender
tanto de la propia latencia de la RAM), además de
compatibilidad de infraestructura de los socket AM2,
AM2+ y AM3 para permitir un camino de actualización
sin sobresaltos. A pesar de todo, no llegaron a igualar
el rendimiento de la serie Core 2 Duo.
 2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro
núcleos de la arquitectura Intel x86-64. Los Core i7 son
los primeros procesadores que usan la
microarquitectura Nehalem de Intel y es el sucesor de
la familia Intel Core 2. FSB es reemplazado por la
interfaz QuickPath en i7 e i5 (socket 1366), y
sustituido a su vez en i7, i5 e i3 (socket 1156) por el
DMI eliminado el northBrige e implementando puertos
PCI Express directamente. Memoria de tres canales
(ancho de datos de 192 bits): cada canal puede
soportar una o dos memorias DIMM DDR3. Las placa
base compatibles con Core i7 tienen cuatro (3+1) o
seis ranuras DIMM en lugar de dos o cuatro, y las
DIMMs deben ser instaladas en grupos de tres, no dos.
El Hyperthreading fue reimplementado creando
nucleos lógicos. Está fabricado a arquitecturas de 45
nm y 32 nm y posee 731 millones de transistores su
versión más potente. Se volvió a usar frecuencias
altas, aunque a contrapartida los consumos se
dispararon.
 2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de
microprocesadores o CPUs multinúcleo (multicore)
fabricados en 45 nm, la cual sucede al Phenom original
y dieron soporte a DDR3. Una de las ventajas del paso
de los 65 nm a los 45 nm, es que permitió aumentar la
cantidad de cache L3. De hecho, ésta se incrementó
de una manera generosa, pasando de los 2 MB del
Phenom original a 6 MB.
 2010: INTEL CORE SANDY BRIDGE
Los próximos procesadores de Intel de la familia core
 2011: AMD BULLDOZER
Los próximos procesadores de AMD de la familia
Fusion
html 5
HTML 5 (HyperText Markup Language, versión 5) es la
quinta revisión importante del lenguaje básico de la
World Wide Web, HTML. HTML 5 especifica dos
variantes de sintaxis para HTML: un «clásico» HTML
(text/html), la variante conocida como HTML5y una
variante XHTML conocida como sintaxis XHTML5 que
deberá ser servida como XML (XHTML)
(application/xhtml+xml).1 , 2 Esta es la primera vez
que HTML y XHTML se han desarrollado en paralelo.
El desarrollo de este código es regulado por el
Consorcio W3C.
[editar]Nuevos elementos
HTML 5 establece una serie de nuevos elementos y
atributos que reflejan el uso típico de los sitios web
modernos. Algunos de ellos son técnicamente
similares a las etiquetas <div> y <span>, pero tienen
un significado semántico, como por ejemplo <nav>
(bloque de navegación del sitio web) y <footer>. Otros
elementos proporcionan nuevas funcionalidades a
través de una interfaz estandarizada, como los
elementos <audio> y <video>.
Mejoras en el elemento <canvas>
Algunos elementos de HTML 4.01 han quedado
obsoletos, incluyendo elementos puramente de
presentación, como <font> y <center>, cuyos efectos
son manejados por el CSS. También hay un renovado
enfasis en la importancia del scripting DOM para el
comportamiento de la web.
[editar]Diferencias con HTML 5 y XHTML
Nuevas etiquetas:
 article, section. Para indicar partes de un artículo
 datalist. Opción de autocompletar con una lista de
valores.
 details, legend. Para mostrar / ocultar texto sin
javascript.
 dialog, dt, dd. Para escribir conversaciones.
 canvas. Para mostrar gráficos.
 ins (inserciones), del (borrados) con marca de
tiempo
 figure, figcaption. Para asociar un contenido
multimedia (una foto, un vídeo, etc) a un título o
leyenda.
 keygen. Para generar una clave criptográfica y
enviarla.
 menu, command. Describir un menú con opciones.
 output, input. Formularios. Indicar si son datos de
entrada o de salida.
 progress, meter. Barra de progreso de una tarea.
 ruby, rp (texto alternativo), rt (elemento del
alfabeto). Indica texto escrito en alfabetos
japoneses, chinos …
 video. Para mostrar videos sin ningún plugIn.
Atributos mínimos de todas las etiquetas (los mas
interesantes):
 Dir. Indica la direccionalidad del contenido, los
posibles valores son: ltr (de izquierda a derecha) y
rtr (de derecha a izquierda)
 Contenteditable. Para indicar que el elemento es
editable por el usuario. Muy interesante, ya que
ahora podremos editar cualquier cosa de manera
trivial para el desarrollador, no solamente los
elementos de un formulario. Permitirá indicar que
elementos son modificables.
 contextmenu. Para indicar un menú contextual
sobre un elemento. Pensado para poder emular
una aplicación de escritorio desde el navegador.
 data-*
Donde el asterisco puede ser cualquier nombre.
Esto permite atributos personalizados, que luego
podremos obtener con Javascript. Por ejemplo el
atributo data-foo-bar="" se podrá acceder mediante
el API DOM con element.dataset.fooBar (elimina los
separadores ‘-’ )
Ejemplo de código HTML 5 que utiliza esta
funcionalidad para guardar valores en atributos
personalizados:
creative commons
Creative Commons (CC) es una organización no
gubernamental sin ánimo de lucro que desarrolla
planes para ayudar a reducir las barreras legales de la
creatividad, por medio de nueva legislación y nuevas
tecnologías. Fue fundada por Lawrence Lessig,
profesor dederecho en la Universidad de Stanford y
especialista en ciberderecho, que la presidió hasta
marzo de 2008.
Creative Commons (en español: «bienes
Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí

Mais conteúdo relacionado

Mais procurados (9)

Segunda venta compras comunitarias
Segunda venta compras comunitariasSegunda venta compras comunitarias
Segunda venta compras comunitarias
 
Banco de Preguntas "TECNOLOGIA COMUNICACIONAL"
Banco de Preguntas  "TECNOLOGIA COMUNICACIONAL" Banco de Preguntas  "TECNOLOGIA COMUNICACIONAL"
Banco de Preguntas "TECNOLOGIA COMUNICACIONAL"
 
Practica 6, equipo 4 ----presupuesto de equipo de computo
Practica 6, equipo 4 ----presupuesto de equipo de computoPractica 6, equipo 4 ----presupuesto de equipo de computo
Practica 6, equipo 4 ----presupuesto de equipo de computo
 
Nuevas tecnologías procesadores intel_180604
Nuevas tecnologías procesadores intel_180604Nuevas tecnologías procesadores intel_180604
Nuevas tecnologías procesadores intel_180604
 
Tp de informatica 14
Tp de informatica 14Tp de informatica 14
Tp de informatica 14
 
Vilcacundo jorge características_pc
Vilcacundo jorge características_pcVilcacundo jorge características_pc
Vilcacundo jorge características_pc
 
Laptop en Venta
Laptop en VentaLaptop en Venta
Laptop en Venta
 
Evidencias de actividades de aprendizaje
Evidencias de actividades de aprendizajeEvidencias de actividades de aprendizaje
Evidencias de actividades de aprendizaje
 
Sistemas operativos de la informatica
Sistemas operativos de la informaticaSistemas operativos de la informatica
Sistemas operativos de la informatica
 

Destaque

informatica
informaticainformatica
informatica
dknos
 

Destaque (7)

informatica
informaticainformatica
informatica
 
INFORMATICA
INFORMATICA INFORMATICA
INFORMATICA
 
Prototyping is an attitude
Prototyping is an attitudePrototyping is an attitude
Prototyping is an attitude
 
10 Insightful Quotes On Designing A Better Customer Experience
10 Insightful Quotes On Designing A Better Customer Experience10 Insightful Quotes On Designing A Better Customer Experience
10 Insightful Quotes On Designing A Better Customer Experience
 
How to Build a Dynamic Social Media Plan
How to Build a Dynamic Social Media PlanHow to Build a Dynamic Social Media Plan
How to Build a Dynamic Social Media Plan
 
Learn BEM: CSS Naming Convention
Learn BEM: CSS Naming ConventionLearn BEM: CSS Naming Convention
Learn BEM: CSS Naming Convention
 
SEO: Getting Personal
SEO: Getting PersonalSEO: Getting Personal
SEO: Getting Personal
 

Semelhante a Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí

Cuestionario informatica
Cuestionario informaticaCuestionario informatica
Cuestionario informatica
Hector Romero
 
Trabajo practico nº 12
Trabajo practico nº 12Trabajo practico nº 12
Trabajo practico nº 12
Jimena
 
Trabajo practico nº 12
Trabajo practico nº 12Trabajo practico nº 12
Trabajo practico nº 12
Jimena
 
Trabajo 100903104533-phpapp01
Trabajo 100903104533-phpapp01Trabajo 100903104533-phpapp01
Trabajo 100903104533-phpapp01
soijuanjo
 
Comparativa-ProyectoFinal
Comparativa-ProyectoFinalComparativa-ProyectoFinal
Comparativa-ProyectoFinal
v_cantu_88
 

Semelhante a Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí (20)

Que+debo+saber+para+comprar+un+pc
Que+debo+saber+para+comprar+un+pcQue+debo+saber+para+comprar+un+pc
Que+debo+saber+para+comprar+un+pc
 
Trabajo p..
Trabajo p..Trabajo p..
Trabajo p..
 
Trabajo practico nº 9
Trabajo practico nº 9Trabajo practico nº 9
Trabajo practico nº 9
 
Trabajo
TrabajoTrabajo
Trabajo
 
Trabajo practico nº 9
Trabajo practico nº 9Trabajo practico nº 9
Trabajo practico nº 9
 
Trabajo practico nº 9
Trabajo practico nº 9Trabajo practico nº 9
Trabajo practico nº 9
 
Trabajo practico nº 9
Trabajo practico nº 9Trabajo practico nº 9
Trabajo practico nº 9
 
Trabajo practico nº 9
Trabajo practico nº 9Trabajo practico nº 9
Trabajo practico nº 9
 
trabajo n 9
trabajo n 9trabajo n 9
trabajo n 9
 
Trabajo final maria
Trabajo final mariaTrabajo final maria
Trabajo final maria
 
Cuestionario informatica
Cuestionario informaticaCuestionario informatica
Cuestionario informatica
 
ll Hardware - IF06 T1 F1
ll Hardware - IF06 T1 F1ll Hardware - IF06 T1 F1
ll Hardware - IF06 T1 F1
 
Trabajo practico nº 12
Trabajo practico nº 12Trabajo practico nº 12
Trabajo practico nº 12
 
Trabajo practico nº 12
Trabajo practico nº 12Trabajo practico nº 12
Trabajo practico nº 12
 
Trabajo final ines
Trabajo final inesTrabajo final ines
Trabajo final ines
 
Sistemas operativos de la informatica
Sistemas operativos de la informaticaSistemas operativos de la informatica
Sistemas operativos de la informatica
 
Trabajo 100903104533-phpapp01
Trabajo 100903104533-phpapp01Trabajo 100903104533-phpapp01
Trabajo 100903104533-phpapp01
 
Trabajo practico n9
Trabajo practico n9Trabajo practico n9
Trabajo practico n9
 
Trabajo p..
Trabajo p..Trabajo p..
Trabajo p..
 
Comparativa-ProyectoFinal
Comparativa-ProyectoFinalComparativa-ProyectoFinal
Comparativa-ProyectoFinal
 

Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí

  • 1. Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí, participan entre 2 y 20 personas y pueden compartir documentos y aplicaciones. Las videoconferencias web son reuniones ‘virtuales’ a través de Internet cuyos participantes trabajan en distintas ubicaciones físicas. La sala de reuniones real se sustituye por el escritorio del ordenador del anfitrión de la reunión (la persona que la ha organizado). Cada participante se sienta ante su propio ordenador, donde puede ver todo lo que el presentador va mostrando en su pantalla (función de ‘desktop sharing’ o escritorio compartido). wiziq elluminate televisión digital a (o DTV, de sus siglas en inglés: Digital TV) se refiere al conjunto de tecnologías de transmisión y recepción de imagen y sonido, a través de señales digitales. En contraste con la televisión tradicional, que codifica los datos de manera analógica, la televisión digital codifica sus señales de forma binaria, habilitando así la posibilidad de crear vías de retorno entre consumidor y productor de contenidos, abriendo la posibilidad de crear aplicaciones interactivas, y la capacidad de transmitir varias señales en un mismo canal asignado, gracias a
  • 2. la diversidad de formatos existentes. Un sistema integro de televisión digital, incorpora los siguientes actores:  Cámaras de video digitales, que trabajan a resoluciónes mucho más altas que las cámaras analógicas.  Transmisión digital  Display digital, de alta resolución (Ej: LCDs, Plasmas) red social es una estructura social compuesta de personas , las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes, intercambios económicos, relaciones sexuales, o que comparten creencias, conocimiento o prestigio. 9 Badoo 8 Metroflog 7 Menéame 6 MySpace 5 Hi5 4 Yahoo Respuestas 3 Twitter 2 Facebook 1 YouTube navegador Un navegador o navegador web (del inglés, web browser) es un programa que permite ver la información que contiene una página web El navegador interpreta el código, HTML
  • 3. generalmente,en el que está escrita la página web y lo presenta en pantalla permitiendo al usuario interactuar con su contenido y navegar hacia otros lugares de la red mediante enlaces o hipervínculos. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados paginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen. Tipos de navegadores o exploradores web Algunos de los navegadores o exploradores web más populares son: Internet Explorer, Mozilla Firefox, Safari, Opera, Google Chrome y Flock. Otros navegadores no tan conocidos son: Maxthon, Avant, DeepNet, PhaseOut, SpaceTime, Amaya... componentes internos de la pc Motherboard CPU BIOS RAM Tarjeta de Video Tarjeta de Sonido (Opcional)
  • 4. Tarjeta de Red (Opcional) Unidades de Almacenamiento Fuente de Poder tecnologia wifi ¿Qué es la tecnología wi-Fi? Wi-Fi (Wireless Fidelity) es la tecnología utilizada en una red o conexión inalámbrica, para la comunicación de datos entre equipos situados dentro de una misma área (interior o exterior) de cobertura. Conceptualmente, no existe ninguna diferencia entre una red con cables (cable coaxial, fibra óptica, etc.) y una inalámbrica. La diferencia está en que las redes inalámbricas transmiten y reciben datos a través de ondas electromagnéticas, lo que supone la eliminación del uso de cables y, por tanto, una total flexibilidad en las comunicaciones. De entre todos los tipos de redes inalámbricas, son las redes inalámbricas IEEE 802.11b las que son conocidas como Wi-Fi (Wireless Fidelity), debido a su amplia difusión en el mercado. Los productos y redes Wi-Fi aseguran la compatibilidad efectiva entre equipos, eliminando en los clientes las dudas que puedan surgir a la hora de comprar un nuevo terminal. El Wi-Fi no es, sin embargo, una alternativa a una red convencional, sino que es una nueva tecnología que viene a complementar a aquellas. Ambas redes (inalámbricas y de cables) ofrecen las mismas expectativas de comunicaciones (compartir periféricos, acceso a una base de datos o a ficheros compartidos, acceso a un servidor de correo, navegar
  • 5. a través de Internet, etc.). En una red inalámbrica cada ordenador dispone de un adaptador de red inalámbrico. Estos adaptadores se conectan enviando y recibiendo ondas de radio a través de un transceptor (transmisor-receptor), que puede situarse en cualquier lugar, interior o exterior, dentro del área de cobertura, sin la preocupación del cableado. Las redes inalámbricas permiten la transmisión de datos a velocidades de 11 Mbps o incluso superiores, lo que proporciona rapidez suficiente para la mayoría de las aplicaciones. Se puede decir que el entorno Wi-Fi es la solución idónea que unifica movilidad y conectividad en la transmisión de datos, ofreciendo una nueva posibilidad de "oficina móvil", se esté donde se esté. pc para jugar A que jugamos? NUESTRAS PREFERENCIAS Y HÁBITOS DE JUEGO PUEDEN HACER UNA DIFERENCIA A LA HORA DE ELEGIR EL HARDWARE. Una manera de ajustar el presupuesto a la hora de elegir componentes consiste en tener en cuenta cuáles son los tipos de juegos que nos más nos gustan. Hay gamers absolutos, que gustan de experimentar con títulos de todos los géneros, pero
  • 6. también hay muchos gamers especializados, que prefieren enfocarse puntualmente a la estrategia, las aventuras, las carreras, etc. En una computadora hay 3 puntos clave que definen su desempeño: procesador, cantidad de memoria y placa de video. Aquí, la clave es saber sobre cuál de estas 3 patas prefieren apoyarse nuestros juegos preferidos. Es decir: hay títulos que requieren una placa de video muy poderosa, pero que se las arreglan con un procesa dar modesto, y viceversa. En la actualidad, para la mayoría de los juegos basta con tener un procesador de doble núcleo de gama media-baja, mientras que la placa de video se ha convertido en un factor fundamental. Esto se debe a dos factores: por un lado, los microprocesadores alcanzaron un nivel de desarrollo tan alto, que incluso los modelos económicos son suficientemente poderosos. En segundo lugar, la calidad gráfica de los juegos no para de avanzar, lo que, obviamente, exige más al chip gráfico. No obstante, todavía se puede señar algún tipo de diferenciación basada en géneros. Veamos qué componente sobrecarga más cada tipo de juego: Como la mayoría jugamos a títulos de acción (los simuladores quedan para unos pocos raros y sabiondos). es válido afirmar que la tarjeta gráfica es, hoy en día, el componente gamer fundamental. El procesador, en tanto, ocupa un lugar no tan estelar como en el pasado. Sí afecta el rendimiento, pero hasta los modelos económicos brindan la potencia suficiente para jugar de manera acepta. Placas de Video
  • 7. LAS TARJETAS ENCARGADAS DE LOS GRÁFICOS SON LA ESTRELLA DE CUALQUIER PC GAMER ACTUAL. La pregunta suele ser directa, sin preámbulos: ¿Qué placa de video me compro para jugar? Pues bien, amigos, de esta manera no hay forma de responder. Antes es necesario saber algo fundamental: qué tipo de monitor tendrá la PC. La resolución de la pantalla nos da una indicación clara y real de cuánto trabajo deberá realizar la tarjeta gráfica en cada caso. Por ejemplo: en una pantalla a 1024 x 768 píxeles, la tarjeta tendrá que "dibujar" yalmacenar en su memoria 786432 píxeles. A la resolución de 1280 x 1024, la cifra se eleva a 1310720 píxeles. Este juego teórico sirve para comenzar a darnos cuenta de las implicancias de la resolución. Volvamos a la pregunta: ¿a qué resolución nos gusta ejecutar nuestros juegos? En los monitores LCD, los juegos se ven mejor a la resolución nativa de la pantalla. Y en los CRT (de tubo). sabemos que hay resoluciones que se adaptan más o menos bien al tamaño del marco de la pantalla. La resolución elegida debería ser nuestra "medida objetivo", y nos ayudará a elegir la placa de video. Si tenemos un monitor chico (y no pensamos cambiarlo). como puede ser un CRT de 17 pulgadas, una resolución de 1024 x 768 será suficiente para que los juegos se vean aceptablemente bien. Para esto nos bastará con una tarjeta gráfica de gama baja o media. Si tenemos una pantalla de 15 pulgadas con resolución de 800 x 600, podría bastarnos hasta con la potencia del video onboard del motherboard. Ahora bien, la realidad es que el estándar actual en monitores está en las 19 pulgadas widescreen, con una resolución de
  • 8. 1440 x 900 píxeles ... y los gamers ya buscan monitores de 20 o 22 pulgadas (1680 x 1050 píxeles). Para estos casos, ya estamos hablando de tarjetas de video de gama media o alta, con 512 o más megabytes de RAM. ANTIALlASING y FILTROS Considerada la importancia de la resolución, deberemos agregar otros factores que también son responsabilidad de la placa de video. El primero es el suavizado de líneas, también llamado antialiasing. Se trata de un procedimiento incorporado en las placas de video que les permite eliminar los típicos dientes de sierra que se forman en los objetos 3D, principalmente en los bordes. Hay distintos niveles de antialiasing: 2x, 4, 8x y hasta 16x en las tarjetas de gama alta. Cuanto más alto es el valor, mayor será el postprocesado que requiera la imagen, mayor el impacto negativo en la performance y mejor el resultado visual. El uso de antialiasing es demandante, sobre todo, en lo que respecta a la velocidad de la memoria de video. Por esa razón, es poco recomendable si se tiene video onboard o una tarjeta gráfica de gama baja, soluciones cuyo punto más flojo es, justamente, la velocidad de la memoria. El filtro anisotrópico se encarga de darle nitidez a las texturas aplicadas sobre objetos 3D, a fin de evitar que se vean borrosas y con poca profanidad de campo. Siempre que se utiliza antialising, conviene aplicar también filtro anisotrópico. Este filtro también exige poder de proceso en el chip gráfico y su uso se hace más pausible en las tarjetas de gama media y alta. SOMBREADO EN DX 9 y DX 10
  • 9. La mayoría de los juegos que ofrecen alta calidad visual requieren, hoy en día, como mínimo un unidad de proceso gráfico compatible con DirecX 9c. Esto es algo muy fácil de obtener, porque está presente en el hardware desde las GeForce 6000 o Radeon X800. Sin embargo, si se quiere experimentar la máxima calidad visual que permite la tecnología actual, hay que ir por placas compatibles con DirectX 10. Esto sería: GeForce 8000 o superior o, por el lado de AMD/AT!. Radeon HD 3000 o superior. La diferencia en calidad visual entre los modos DX9 y DXl O depende mucho de cómo haya sido programado cada juego en particular. En ciertos casos, la diferencia es prácticamente imperceptible, mientras que en otros (que por ahora son los menos) se aprovecha máximo las posibilidades del hardware moderno y se puede apreciar una mejora. En todo caso, conviene saber que nuestra solución gráfica debe ser compatible con DirectX 10. ATI VERSUS NVIDIA Los dos principales fabricantes de chips gráficos mantienen una durísima competencia y suelen tener en el mercado modelos de similar desempeño y precio, que, más o menos, se equiparan. Aunque nunca ofrecen exactamente el mismo rendimiento, puede decirse que hay un equilibrio. En la tabla siguiente podemos observar los principales modelos y sus contrapartes.
  • 10. ACELERACIÓN DE FISICAS Los chips gráficos integrados en las placas de video reciben el nombre de GPU (Unidad de Procesos Gráficos) y recientemente han superado a los procesadores de Intel y AMO en capacidad de cálculo teorice. Debido a esto, NVIDIA y ATI están promoviendo la idea de utilizar las GPU para realizar otro tipo de tareas, aparte de generar los gráficos 3D. Uno de los trabajos más interesantes para los que se puede aprovechar el inmenso poder 8e las placas de video actuales, es la aceleración de cálculos físicos en un juego. Gracias a la aceleración de físicas, se pueden generar efectos más precisos y realistas de ruptura de vidrios, polvo, viento y comportamiento de los objetos en general. Lo bueno,es que al utilizar la GPU para acelerar físicas, no sólo se gana en calidad, sino en performance. Hoy en día, todas las placas de video de NVIDIA de serie GeForce 8 y superiores ofrecen la posibilidad de funcionar como aceleradoras de físicas bajo el estándar PhysX. Sólo necesitan los drivers actualizados y, desde luego, un juego que haya sido programado específica mente para PhysX. En la actualidad, hay un número limitado pero en aumento de juegos que suportan PhysX, como Mirrors Edge, Warmonqer, Unreal Tournamente 3 (actualizado con un patch). En cuanto al hardware, se puede utiliza, la misma placa de video para efectuar la aceleración de físicas y el rendering 3D o utilizar dos tarjetas separadas (la de menor performance para físicas). La compañía AMD / ATI, por su parte, también está trabajando en el tema y adscribe al estándar de
  • 11. aceleración de físicas llamado Havok, pero por el momento no hay juegos que brinden esta capacidad en las placas Radeon. Recientemente, Intel anunció que también incluiría soporte para Havok en sus futuras GPU, así que esta área seguramente crecerá mucho en el futuro cercano. De hecho, se espera que la aceleración de físicas se implemente como estándar dentro del futuro DirectX 11. De esa forma, se evitaría una inútil guerra de estándares entre PhysX y Havok (en la que, por el momento, NVIDIA lleva la delantera). Procesadores EL MOTOR DE LA PC TIENE UNA IMPORTANCIA FUNDAMENTAL. AQUÍ VEMOS LAS OPCIONES DE INTEL Y AMD. Hoy estamos en la era de lbs pracesadores de múltiples núcleos. Sin embargo, el software ha tardado un poco én alcanzar el ritmo del hardwaré. Recordemos queen 2007 todavía pocos juegos soportaban pracesadores de doble núcleo. Es decir, utilizaban sóló 1 núcleo. Después, en 2008, la mayoría de los títulos (muchos de los cuales todavía están dé moda)sólo estaban optimizados para chips de 2 núcleos, a pesar de que en mercado los procesadores Quad Core ya no eran novedad. Recién con la aparición de GTA IV, que viene preparado para aprovechar al máximo 2, 3 o 4 núcleos, los pracesadores de 4 núcleos se volvieron deseables para el jugador medio. Todavía son pocos los juegos diseñados para sacar el máximo provecho de un chip de cuatro núcleos. Algunos títulos se pueden mejorar mediante parches
  • 12. lanzados por sus desarrolladores, pero lo cierto es que todavía en 2009 un dual core es suficiente para jugar. Unreal Toumament 3 es otro título cuyo motor acepta 4 núcleos, pero se trata de un juego relativamente ligero, por lo que con 2 núcleos logra un rendimiento más que bueno. LOS CHIPS DE AMD La línea más económica de procesadores AMD se llama Semprón y funcionan en motherboards con el socket AM2 o AM2+ Y DDR2. Hay chips Sempron de doble núcleo, pero al igual que el Celeron, se quedan cortos de potencial si piensa armar una PC para jugar a los últimos juegos durante un buen tiempo. "Buenos y baratos" se pueden encontrar procesadores de doble núcleo Athlon X2, como el modelo 5200+, que se consigue por alrededor de 75 dólares. y por poco más se pueden obtener chips como el X2 7750 o el 7850, de 2,7 y 2,8 GHz. Estos chips serían los equivalentes aproximados a los E5000 y E7000 de Intel. AMD es, por el momento, la única compañía que ofrece procesadores de 3 núcleos: Athlon X3 y Phenom X3. Constituyen una opción que se ubica en precio y performance entre los chips de 2 y 4 núcleos. En la gama más alta de AMD, se encuentran los nuevos procesadores Phenom II de cuatro núcleos. Hay variantes de este chip que pueden funcionar tanto con
  • 13. motherboards que usen memoria DDR2 como DDR3 y socket AM2+ Y AM3 (Actual). Los Phenom II compiten a la par contra los chips Core 2 Ouad de alta gama (entre Q9550 y QX9770). EL PHENOM II ES EL PROCESADOR MÁS RÁPIDO Y AVANZADO DE AMD. COMPITE CON LOS INTEL CORE 2 QUAD DE ALTA GAMA. LA IMPORTANCIA DE LA CACHÉ Los procesadores más caros y poderosos se suelen distinguir de los más economicos por dos cuestiones básicas: la frecuencia de funcionamiento (MHz o GHz) y la cantidad de memoria caché integrada en el chip. Para darnos una mejor idea de esto, podemos dar un vistazo, en la tabla de abajo, a la línea de procesadores Core 2 Duo de Intel y cómo los modelos de menor rendimiento tienen una menor cantidad de caché de segundo nivel (l2). El mismo tipo de segmentación realiza AMD con sus chips Phenom, Athlan y Sempron. Si dos procesadores basados en la misma arquitectura (digamos, dos Core 2 Duo) funcionan a la misma frecuencia (por ejemplo, 2 GHz) tendrá mejor desempeño aquel que tenga mayor cantidad de caché integrada. Memoria RAM
  • 14. DESDE DDR2 HACIA DDR3La industria de los juegos siempre ha sido demandante en lo que respecta a memoria RAM. Más allá del tipo que se utilice (que está directamente relacionado con el modelo de procesador elegido). lo que nos importa analizar aquí es cuánta memoria hace falta, realmente, para jugar con comodidad. Podemos decir que 2 GB es un buen punto de partida para cumplir los requerimientos de los juegos actuales. Pero para los más exigentes, 4 GB se está convirtiendo en el estándar, sobre todo si utilizan Vista. Los usuarios de Core i7, que tiene triple canal de memoria, optan por 3 GB o hasta 6 GB de RAM. Este último caso, debemos reconocer, es algo excesivo. Uno de los beneficios de tener una buena cantidad de memoria es que se evitan las lecturas de disco mientras se juega. Así, se minimizan los saltos o tirones en la acción. La memoria también ayuda mucho a mejorar la velocidad de inicio de un juego. ACTUALMENTE ESTAMOS VIVIENDO UNA LENTA TRANSICIÓN DE DDR2 HACIA DDR3 TANTO INTEL COMO AMD ESTÁN APOSTANDO AHORA A LA TECNOLOGÍA MÁS NUEVA. EL LIMITE DE LOS 3GB Si usamos Windows XP o Vista de 32 bits, el sistema no reconocerá más uqe 3 GB de memoria, aunque le instalemos 4 GB o más. Esto se debe a una limitación
  • 15. propia de los sistemas de 32 bits. Por eso, si se quiere, disponer de más memoria, resulta indispensable utilizar un sistema operativo Windows de 64 bits. Antes de hacer semejante migración, hay que asegurarse de conseguir drivers de 64 bits para todos nuestros componentes y periféricos, porque los de 32 bits no nos servirán. Dispositivos menores, como adaptadores de red Ethernet o Wi-Fi pueden resultar un inconveniente en este sentido. ARMAMOS LA PC DE NUESTROS SUEÑOS Y TAMBIÉN LA QUE EL BOSILlO NOS PERMITE. Aquí nos vamos a tomar el atrevimiento de sugerir distintas configuraciones básicas que consideramos adecuadas para distintos rangos de precio. Decimos que estas son computadoras balanceadas y pensadas para jugar, porque tienen en cuenta un equilibrio entre los 3 componentes principales (procesador, placa de video y memoria RAM). Muchos compradores inexpertos creen que para tener una computadora poderosa basta con asegurarse un procesador costoso de 4 núcleos y la mayor cantidad de memoria que puedan comprar. Pero, como señalamos al principio de este artículo, en el mundo de los juegos las placas de video han alcanzado un gran protagonismo, por lo que hay que tener una visión más amplia al elegir componentes. EL GAMER BÁSICO La configuración que proponemos con este nombre no es una PC "mínima" para jugar. Es un equipo rápido que puede ejecutar los juegos más modernos y que lo
  • 16. podrá seguir haciendo, tranquilamente, por un año o más tiempo. Desde luego, el jugador deberá ser cuidadoso con la configuración de los sus juegos, que generalmente tendrá que jugar en mediana calidad gráfica para no exigir más de lo que la máquina puede dar. El procesador es el AMD Athlon X2 7780, un chip de doble núcleo y 2,8 GHz capaz de entregar la potencia de cálculo necesaria hoy en día. El precio de este micro (U$SS 100). lo convierten en nuestro elegido cuando el dinero importa. Quienes gusten de Intel, pude ir por el Pentium E5200, que ofrece un desempeño similar. Si se busca algo más potente, una gran opción es el Core 2 Duo E7400, que por ronda los U$S 170 y, si se animan, ofrece un gran potencial de overclocking. La solución gráfica elegida puede ser una GeForce 9600 GT o una Radeon HD 4670. Si bien están en un nivel similar, la 9600 GT es un poco más rápida y un poco más costosa que la HD 4670. Pero la Radeon tiene a su favor que no requiere un conector adicional de energía, por lo que no necesita una fuente potente para ser utilizada. Ambas placas de video se desempeñan bien a resoluciones de 1440 x 900 píxeles, que es lo que encontramos en los típicos monitores de 19 pulgadas Widescreen. UN EQUIPO INTERMEDIO Para una PC intermedia, que ya llama la atención por su potencia, elegimos un procesador de cuatro núcleos. Sin embargo, bien se podría preferir un chip de doble núcleo rápido, como el Core 2 Duo E8500.
  • 17. Como dijimos antes, los juegos recién ahora están empezando a aprovechar más de dos núcleos. Los chips elegidos son el Intel Core 2 Quad Q9400 (U$S 299) y el AMD Phenom 11 X4 940 (U$S 270). Ambos tienen un desempeño muy similar, así que la elección dependerá mucho del gusto que tengan por cada marca y la influencia que tenga la diferencia de precios. Para acompañar estos chips, hemos aumentado la cantidad de memoria hasta los 4 GB. En cuanto a la placa de video, encontramos opciones muy equilibradas de NVIDIA y ATI: La GeForce GTS 250 y la Radeon HD 4850. Usualmente, estos modelos se consiguen con 1 GB de memoria y proveen la potencia necesaria para jugar con detalles altos y aplicar filtros de antialiasing. LA PC PODEROSA Esta no es la PC más poderosa que el dinero pueda comprar, sino una computadora muy rápida en la que los componentes se han elegido con generosidad pero sin caer en gastos extremos. El procesador es el Intel Core i7 920. Este chip de cuatro núcleos más elegido de la nueva serie Core i7. Una característica de la arquitectura Core i7 es que se utiliza triple canal de memoria. Por eso, acompañamos el procesadar con un kit de RAM conformado por 3 módulos de 2 GB cada uno. La placa de video puede ser la Radeon HD 4890 de 1 GB o la GeForce GTX 275 de 896 MB. Ambas se ubican en un plano similar de precio y performance.
  • 18. Medir el Rendimiento LOS BENCHMARKS NOS PERMITEN CONOCER EL VERDADERO DESEMPEÑO DE NUESTRA PC. AQUÍ RELEVAMOS LAS PRINCIPALES OPCIONES. Es usual que en revistas especializadas en hardware o en sitios web encontremos datos que muestran el desempeño de distintos componentes de la PC. Los programas que se utilizan para medir y evaluar el desempeño se llama benchmarks y podemos ejecutarlos en nuestra PC para comparar su funcionamiento con el de los productos que muestran las reviews o con el de las computadoras de nuestros amigos. A continuación detallaremos los benchmarks más adecuados para medir la performance de un equipo. * 3DMark 06 (http://www.futuremark.com): este es un benchmark clásico, orientado principalmente a cuantificar el desempeño de las placas de video. Está subvidivido en varias pruebas que son escenas en 3D, que se suceden por un lapso de aproximadamente 10 minutos. Al finalizar, brinda un puntaje que puede ser comparado con el obtenido por otras computadoras. El puntaje 3DMark se subdivide en 3 partes: Shader Model 2.0, que mide el rendimiento puro de la placa de video en aplicaciones DirectX 8, Shader Model 3.0/HDR, que evalúa la performance al aplicar efectos
  • 19. más avan- zados, propios de DirectX 9. Por último, está el puntaje atribuido al procesa dar de la PC (CPU). El benchmark de CPU sigue siendo, hoy en día, muy confiable para comparar distintos procesadores, debido a que soporta correctamente los chips de múltiples núcleos y los resultados son bastante independientes de la placa de video que se tenga instalada. ¿Por qué elegimos la versión 2006 y no el más nuevo 3DMark Vantage, publicado en 2008 Vantage requiere una PC poderosa, requiere estar instalado en Windows Vista y, a diferencia de la versión 06, su utilidad es muy limitada si no se compra la licencia. Lo bueno de Vantage es que permite evaluar el desempeño de los juegos en los modos de alta calidad provistos por DirectX 10 y también incluye soporte para aceleración de cálculos de física. Volviendo a 3DMark 06, se trata de una aplicación shareware, que puede utilizarse gratuitamente para realizar pruebas a resolución de 1280 x 1024 píxeles. Para utilizarlo a otras resoluciones y habilitar opciones como el antialiasing se debe comprar el número de serie para activarlo. audacity Audacity es una aplicación informática multiplataforma libre, que se puede usar para grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL.
  • 20. creative commons Creative Commons (CC) es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de nueva legislación y nuevas tecnologías. Fue fundada por Lawrence Lessig, profesor dederecho en la Universidad de Stanford y especialista en ciberderecho, que la presidió hasta marzo de 2008. prevención infantil Según una encuesta de la Sociedad Argentina de Pediatría, la mitad de los chicos en los hogares encuestados se conecta a diario a Internet, pero en casi la mitad de los hogares no hay un adulto supervisando qué hacen en la Red. Además, el 31% de los padres encuestados no conoce el apodo que usan los chicos al conectarse, y el 52% no sabe quiénes son los contactos que tienen sus hijos en el mensajero instantáneo. Y mientras que en el 90% de los hogares encuestados las PC tienen antivirus, el 71% de los padres no activa o no sabe si están activos los filtros de control parental, que intentan bloquear el acceso a páginas con contenidos no aptos para menores. La encuesta fue presentada el jueves último en la Semana de la Seguridad Informática, organizada por Microsoft. "Los padres les advierten a los chicos que no hablen con gente extraña, que no abran la puerta a un
  • 21. desconocido y controlan lo que los chicos ven por televisión o leen. Pero cuando se traslada esto a Internet, muchos padres no se dan cuenta de que deberían tener el mismo nivel de protección -advierte el doctor Ariel Melamud, uno de los pediatras que realizaron la encuesta- y dejan a los chicos solos y expuestos frente a una PC conectada." Internet puede parecer un entorno seguro y controlado, pero la Red arrastra las características que definen al resto de la sociedad, con cosas fantásticas y otras que son claramente peligrosas para los chicos. El mensajero instantáneo, las salas de chat, el fotolog, el blog, la red social, el foro de discusión. Parecería que todo lo que allí se pone es personal y privado, pero si no se toman los recaudos necesarios, puede ser visible para cualquier interesado en averiguar más sobre ese chico y acercarse a él. Y una vez que esos contenidos están on line, su dueño pierde el control sobre ellos. El problema no está en que un chico tenga un fotolog, sino en que ese fotolog puede verlo cualquiera, y (salvo que se configure correctamente) todos pueden dejar comentarios, aprovechando el anonimato que proporciona la Red, o recircular esa foto con extrema sencillez. "Los padres creen que los chicos están seguros porque están en casa, pero en realidad están navegando por el mundo, y es importante que haya un adulto que los ayude y supervise -explica Teresita Apesteguia, fundadora del portal infantil Abchicos.com.ar y directora de la Comisión de Seguridad Infantil de la
  • 22. Cámara Argentina de Comercio Electrónico-. Desde 2005 trabajamos en este tema, y vemos a chicos que por inocencia proporcionan muchísima información sobre ellos y su familia a extraños." Estas exposiciones involuntarias incluyen, explican los expertos, poner fotos de la puerta de su casa en su fotolog, relatar hechos específicos (el colegio al que van, si se van de vacaciones), avisar públicamente de reuniones con fecha y dirección, ingresar números de teléfono en cualquier formulario on line, o juntarse con amigos que conocieron a través del chat y que, en el peor de los casos, puede ser un adulto haciéndose pasar por un niño. "Los chicos no tienen a los padres o docentes como referentes idóneos en estos temas, y no los consultan. Muchos chicos, además, prefieren callar cualquier problema por miedo a que limiten el uso de la PC. A la vez, no siempre entienden que Internet es un medio abierto, y que hay cosas que es mejor no comunicarlas allí -dice Andrea Urbas, de la Asociación Chicos.net, un portal infantil que también ofrece charlas sobre el tema para adultos-. Los padres tienen que tener un rol más activo, una postura abierta, y generar un diálogo fluido con los chicos para poder ayudarlos." "Necesitamos adultos con los ojos abiertos. No hace falta ser experto en tecnología, pero sí compartir Internet con los chicos. Estamos a favor de la tecnología, pero debe existir una visión de adulto que acompañe al hijo, que sepa distinguir lo bueno de lo malo que hay en la Red", explica Melamud.
  • 23. En esto los expertos tienen el mismo mensaje: muchas veces los chicos saben más que los grandes en cuestiones de tecnología, pero los padres están capacitados para aconsejarlos sobre cómo moverse en la sociedad, y eso no depende de ser expertos en una determinada herramienta tecnológica, sino de generar una comunicación entre padres y chicos que les permita compartir experiencias, como lo hacen con otra actividad, como el colegio o una reunión con amigos. Tips y herramientas Los expertos aconsejan que se ubique la PC fuera del cuarto de los chicos, para facilitar su supervisión, y alentar las consultas con los padres ante una duda. Si tienen que llenar un formulario on line, lo ideal es que lo hagan acompañados de un adulto, para verificar qué información se les pide. Además del diálogo y la generación de reglas consensuadas en el uso de la PC, los padres disponen de freeware para ayudarlos. Ninguno es totalmente efectivo: los filtros de contenido no son inteligentes, sino que dependen de palabras clave o una lista de sitios no permitidos. Además, pueden generar falsos positivos, bloqueando sitios que son seguros. Aun así, pueden ser útiles. Tanto Google ( www.google.com.ar ) como Yahoo ( ar.search.yahoo.com ) o Microsoft (search.live.com ) permiten configurar el buscador para que no ofrezca resultados con contenidos para adultos, aunque esto puede ser modificado por cualquier usuario.
  • 24. la mejor impresora para imprimir solo blanco y negro el mas bajo costo operativo se consigue con la HP 4000 (costo por copia $ 0.05, al 40% covertura grafica) le sigue la HP 5si ( $ 0.065 40% covertura grafica) obviamente en tamaño A4 se utilizaron cartuchos HP alternativos, no reciclados ni recargados. Para imprimir a color el costo mas bajo se consigio con la HP K5400 con un costo irrisorio de $ 0.0012 por copia A4 con una covertura de 60%, le siguio la Epson C110 conun costo de $ 0.0015 y por ultimo la Epson T50 con un costo de $ 0.0017. Esta se utilizaron con Sistemas continuos de Tinta con tintas de primera marca. Y el costo incluye el costo de la impresora mas el sistema continuo y las tintas que se utilizaron por ca cantidad de copias que se realizaron, por si no queda claro las impresora HP K5400 imprimió hasta agotar los cabezales 118635 copias. En el formato A3 tanto las Hp 8600 como la Epson 1410 tienen el mismo costo operativo que es de $ 0.0032 por copia A4 al 60% de covertura, teniendo mas prestaciones la Epson por la mayor variedad de formatos (imprime hasta 1120 mm.) tambien se midio usando sistemas continuos de tintas y tintas de primera marca.
  • 25. tengo que aclarar que las impresoras canon si bien tienen costos similares, pero las problematicas que tienen al utilizar sistemas continuos de Tintas las deja afuera de mi analisis. ya que operativamente se demora mas en reiniciar los sistemas continuos cambiar los chips, etc Bueno este es mi humilde aporte y espero que les sirva al momento de adquirir una impresora Actualmente estoy testeando la HP 8000 y La Epson Stylus Pro 3800 pc para trabajar requisitos mínimos recomendados. Placa Base Placa Base, llamada también tarjeta madre. Es el componente principal del PC. Dependiendo de qué placa base elijamos podremos elegir los demás componentes. (Procesador, memoria, disco duro). Así que debe ser una compatible con los tipos de memorias y procesadores actuales. Dentro de la placa madre/tarjeta madre el componente principal es el chipset.
  • 26. Chipset El chipset : Este determina los procesadores que serán soportados por la placa madre así como el tipo de memoria RAM que será soportado (DDR2, DDR3, etc.) Algunas placas madres recomendadas son las de chipset Intel o chipset AMD. Procesador Procesadores: Intel Pentium 4, Intel Centrino, Intel Xeon o Intel Core Duo™ (o compatible). Para trabajar con 3D a partir del Intel Core Duo o intel Core 2 Quad que es mucho más potente. Memoria RAM Memoria: 1 GB (DDR) de RAM. Puede ser una memoria económica, no es necesario que tenga una velocidad muy alta. DDR, DDR2, DDR3: son los nuevos tipos de memorias que salieron al mercado, permiten velocidades más altas. Para trabajar con 3D basta con 2 o 3 GB en RAM. Aquí si necesitan buenas velocidades en RAM puesto que el 3D es más pesado. La velocidad llamada aquí Megahertz (MHz), es
  • 27. importante para el 3D, ya que es la velocidad a la que funcionará la memoria. Entre más velocidad más rápido trabajaran. Disco Duro También es necesario tener un buen disco duro ya que las imágenes son pesadas y requerimos suficiente espacio para almacenarlas. Disco duro de 160 Gigabytes o mas de capacidad es recomendable. Para 3D de 200 GB en adelante, es importante que sean de alta velocidad. (SATA / SATA2) SATA / SATA2: este tipo de discos duros rápidos permiten una transferencia de datos muy rápida. De manera que nuestros archivos muy pesados podremos copiarlos de un lado a otro sin mayor dificultad. Tarjeta aceleradora de graficos Tarjeta Grafica/de video: 128 MB de RAM en video. El video convierte las señales visuales en eléctricas para mostrarlas en un monitor. Todo sucede tan rápido que no se nota. La tarjeta grafica tiene la labor de procesar las imágenes y posteriormente mandarlas al monitor. Para 3D una tarjeta de video de 256 de RAM en adelante.
  • 28. RSS son las siglas de RDF Site Summary or Rich Site Summary , un formato XML para sindicar o compartir contenido en la web. Se utiliza para difundir información actualizada frecuentemente a usuarios que se han suscrito a la fuente de contenidos. El formato permite distribuir contenidos sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas wiki (o una wiki) (Plantilla:IPAc-en Plantilla:Respell) (del hawaiano wiki, «hacer las cosas de forma sencilla y rápida») es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wik
  • 29. audioblog es una variante de weblog o bitácora que consiste en una galería de ficheros de audios en diferentes formatos, publicados regularmente por uno o más autores. El autor puede autorizar a otros usuarios a añadir comentarios u otros ficheros de audio dentro de la misma galería. La Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos como. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape, etc. La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta. Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.[1] Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.
  • 30. Web 2.0 (2004–presente) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona. Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente
  • 31. existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.[1 Los diez ultimo gran inventos en el 2010 10. Pantallas flexibles Probablemente no las veremos en el mercado hasta el 2010, la tecnología ya esta aquí Con ayuda del ejercito de los Estados Unidos, el Centro de Pantallas Flexibles de la Universidad del Estado de Arizona desarrollo durante este año un prototipo para soldados que esperan sea funcional en unos 3 años, luego de pruebas y más estudios. También empresas fuertes como HP y Samsung han presentado prototipos de cómo podría funcionar y mejorar la tecnología actual. Periodicos enrollados en un tubo pueden ser cosa de todos los días en un futuro no muy lejano… 9. Chips Comestibles Este avance en el campo de la medicina es muy prometedor, especialmente para pacientes o casos
  • 32. donde el medico tratante debe estar muy al tanto sobre el avance de la enfermedad del paciente. Se han logrado crear chips comestibles que toman datos en tiempo real sobre el paciente: qué come, a qué hora, en que posición, ritmo cardíaco, etc. Luego envían estos datos por medio de un celular cercano a una base de datos central que finalmente el medico puede consultar para conocer el estado del paciente. 8. Speedo LZR Michael Phelps… No hay necesidad de dar mayor explicación. Utiliza nuevos materiales junto a sciencia de la NASA para mejorar las velocidades de competidores reduciendo la fricción al momento de nadar, muy impresionante. 7. Memoria Flash Pero, esa ya esta en el mercado desde hace mucho tiempo, ¿No? Cierto, lo que sucede es que este año la vimos ingresar, de manera triunfante, en el mundo del disco duro. A través de discos de estado sólido (SSD – Solid State Drives). La gran desventaja es que por el momento estos discos son demasiado caros pero seguro dentro de algunos años veremos los precios bajar significativamente y estos discos estarán al alcance de nuestro bolsillo. Las grandes ventajas son en rápidez y confiabilidad de los datos guardados en ellos. Recordemos que el disco duro juega un papel importante en nuestra PC. 6. GPS Aunque la tecnología es muy antigua (70′s) recientemente ha aparecido por todas partes gracias a
  • 33. dispositivos como el iPhone 3G y el nuevo G1 de T- mobile, haciendo que tome un nuevo sentido, ya que anteriormente era reservado para usos militares. 5. El Memristor No sucede muy seguido, pero este avance tecnologico puede cambiar la forma en la que usamos nuestras computadoras. Casi 37 años después de haber sido descrito en una serie de ecuaciones matematicas, investigadores de los laboratorios de HP han probado que el cuarto elemento en circuitos electronicos es real. El “memristor” o transistor de memoria, ahora se une a otros tres elementos: el capacitor, la resistencia y el inductor. Este descubrimiento podría hacer posible que las computadoras “recuerden” el estado de la memoria aún despues de haber sido apagadas, cosa no posible con tecnología actual. Esto puede hacer que tengamos computadoras más eficientes en el futuro, reemplazando la memoria “DRAM” como la conocemos probablemente. 4. Cámaras SLR capaces de tomar video Es cierto, solo pueden tomar unos segundos, pero anteriormente esta “función” estaba relegada a las cámaras más economicas debido a la forma que funcionan los lentes SLR, esperamos ver más cámaras (actualmente solo hay dos: Nikon D90 y Canon 5D Mark II) en el futuro no muy lejano haciendo uso de esta tecnología con mayor capacidad de almacenamiento de video. 3. USB 3.0
  • 34. Abrochense los cinturones. USB 3.0 será 10 veces más rápido que la especificación actual, 2.0. Además y por si fuera poco, ahora proveerá 900 miliamperios de energía en lugar de los 100 actuales, haciendo que dispositivos puedan hacer mejor uso del cable USB para cargarse fácilmente. Los detalles fueron afinados finalmente este año y probablemente veremos dispositivos nuevos durante el 2009 haciendo uso de esta tecnología para transferir nuestros videos, música y archivos más rápido de lo que canta un gallo. 2. Android Android, la nueva plataforma de Google que promete ser abierta, será una gran competencia para Apple y su iPhone, así como Microsoft con Windows Mobile. Esto es bueno, ya que veremos más dispositivos en el mercado que harán uso de estas tecnologías y por supuesto dichas tecnologías también tendrán que estar en constante actualización para poder competir unas con otras. Se espera una batalla reñida… El primer dispositivo en usar el sistema operativo para mobiles, Android, ha sido el G1 de T-Mobile, creado por HTC. De cualquier manera veremos muchos más dispositivos usando este sistema operativo durante el 2009. 1. App Store de Apple Hasta este año, aplicaciones para mobiles erán dificiles de hacerse llegar al consumidor, pero gracias a la nueva App Store de Apple, esto es cosa del pasado (noten que únicamente aplica para el iPhone) y
  • 35. ademas ha creado un frenesí de otros creadores de Smartphones (RIM con su blackberry, Microsoft con Mobile y Google con Android) por crear sus propios portales de distribución de software. notebook y netbook  Por lo general funcionan empleando una batería o un adaptador que permite tanto cargar la batería como dar suministro de energía.  Suelen poseer una pequeña batería que permite mantener el reloj y otros datos en caso de falta de energía.  En general, a igual precio, las notebooks suelen tener menos potencia que las computadoras de escritorio, incluso menor capacidad en los discos duros, menos poder de video y audio, y menor potencia en los microprocesadores. De todas maneras, suelen consumir menos energía y son más silenciosas.  Suelen contar con una pantalla LCD y un touchpad.  En general, cuentan con PC Card (antiguamente PCMCIA) o ExpressCard para tarjetas de expansión.  Existe un tipo de notebooks llamadas netbooks, que son más pequeñas y más livianas, M 570E  No hay todavía un factor de forma industrial estándar para las notebook, es decir, cada fabricante tiene su propio estilo de diseño y construcción. Esto incrementa los precios de los
  • 36. componentes en caso de que haya que reemplazarlos o repararlos, y hace que resulten más difíciles de conseguir. Incluso a menudo existen incompatibilidades entre componentes de notebooks de un mismo fabricante. [editar]Netbook Artículo principal: Netbook Son una nueva clase de portátiles que eliminan la unidad de CD, y reducen la potencia de otros componentes como la tarjeta gráfica, con el fin de disminuir el tamaño físico de las máquinas (y en ocasiones el costo), capaces de entrar en el bolsillo de un pantalón, como en el caso de los VAIO serie P. Su capacidad de procesamiento es notablemente menor que las portátiles normales, por eso necesitan sistemas operativos diseñados específicamente, además del uso de almacenamiento remoto. Apple Es una empresa multinacional estadounidense que diseña y produce equipos electrónicos y software.2 Entre los productos de hardware más conocidos de la empresa se cuenta con equipos Macintosh, el iPod y el iPhone. Entre el software de Apple se encuentran el sistema operativo Mac OS X, el sistema operativo iOS, el explorador de contenido multimedia iTunes, la suite iLife (software de creatividad y multimedia), la suite iWork(software de productividad), Final Cut Studio (una
  • 37. suite de edición de vídeo profesional), Logic Studio (software para edición de audio en pistas de audio), Aperture (software para editar imágenes RAW), y el navegador web Safari. Creadores Steve Jobs y Steve Wozniak se conocieron en 1971, cuando un amigo mutuo, Bill Fernandez, presentó a Wozniak, quien tenía 21 años de edad a Jobs, entonces de 16 años. Steve Wozniak, a quien le gustaba que le llamaran Woz, siempre había sentido una gran atracción por la electrónica en general, diseñando desde que era pequeño circuitos en papel para después tratar de optimizarlos al máximo. Dada su afición por la electrónica, Woz "apadrinaba" a otros chicos a los que les gustase el tema, como Bill Fernandez o el mismoSteve Jobs. Pronto Wozniak empezó a dedicar cada vez más y más tiempo en construir en papel su propia computadora. Tras intentos relativamente infructuosos, finalmente sus esfuerzos dieron como resultado lo que sería la Apple I. Tras la presentación de su computadora en el club informático Homebrew Computer Club y asombrar a sus participantes, Jobs rápidamente vio la oportunidad de negocio, por lo que empezó a promocionar la computadora entre otros aficionados de la informática del Homebrew Computer Club y otras tiendas de electrónica digital. Al poco tiempo empezaron a recibir pequeños encargos de computadoras que construían ellos mismos con máquinas hechas a mano, llegando a
  • 38. vender unos 200 ejemplares de su máquina Apple I. Se les unieron más amigos, pero las prestaciones del Apple I eran limitadas, así que empezaron a buscar financiación. Finalmente Jobs conoció a Mike Markkula, que accedió a invertir, creándose así el 1 de abril de 1976, Apple Computer. En total, se produjeron y se vendieron alrededor de doscientas unidades a 500 dólares la unidad, pero el éxito fue tal que no pudieron dar abasto con tanta demanda. Las características del Apple I eran limitadas por el poco dinero del que disponían Jobs y Wozniak. De hecho, para construir el prototipo, Jobs tuvo que vender su camioneta y Woz su calculadora programable HP. Sede Cupertino, California, Estados Unidos La empresa opera más de 300 tiendas propias en nueve países, miles de distribuidores (destacándose los distribuidores premium o Apple Premium Resellers) y una tienda en línea (disponible en varios países) donde se venden sus productos y se presta asesoría técnica.
  • 39. Google Google Inc. es la empresa propietaria de la marca Google, cuyo principal producto es el motor de búsqueda del mismo nombre. Dicho motor es resultado de la tesis doctoral de Larry Page y Sergey Brin (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stanford) para mejorar las búsquedas en Internet. La coordinación y asesoramiento se debieron al mexicano Héctor García Molina, director por entonces del Laboratorio de Sistemas Computacionales de la misma Universidad de Stanford.3 Partiendo del proyecto concluido, Page y Brin fundan Google Inc. el 4 de septiembre de 1998. Este motor de búsqueda superó al otro más popular de la época, AltaVista, que había sido creado en 1995. Aunque su principal producto es el buscador, la empresa ofrece también entre otros servicios: un comparador de precios llamado Google Product Search (antes conocido como "Froogle"), un motor de búsqueda para material almacenado en discos locales (Google Desktop Search), un servicio de correo electrónico llamado Gmail, su mapamundi en 3D Google Earth o un servicio de mensajería instantánea basado enXMPP llamado Google Talk. Actualmente Google está trabajando en nuevos proyectos como la PC de 100 dólares,4 un nuevo sistema operativo,5 Google Docs & Spreadsheets, colaboración6y promoción de aplicaciones de software libre como Firefox,7 instalación de varias redes inalámbricas gratuitas,8 desarrollo de un sistema de
  • 40. protocolo abierto de comunicación por voz9 entre otros. Además se especula que estaría trabajando en el desarrollo de un "Google Office"10 y una red global de fibra óptica.11 Sede Mountain View, CA, Estados Unidos Microsoft Microsoft Corporation (NASDAQ: MSFT) es una empresa multinacional de origen estadounidense, fundada en 1975 por Bill Gates y Paul Allen. Dedicada al sector de lainformática, con sede en Redmond, Washington, Estados Unidos. Microsoft desarrolla, fabrica, licencia y produce software y equipos electrónicos. Siendo sus productos más usados el sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales tienen una importante posición entre los ordenadores personales. Con una cuota de mercado cercana al 90% para Office en 2003 y para Windows en el 2006. Siguiendo la estrategia deBill Gates de "tener una estación de trabajo que funcione con nuestro software en cada escritorio y en cada hogar".4 5 6 7 8 9 10 11 12 Sede Redmond, Washington, Estados Unidos Creadores
  • 41.  Bill Gates  Fundador  Paul Allen  Fundador  Steve Ballmer  Ejecutivo principal software libre El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por el doble sentido delinglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmentefreeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los
  • 42. derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autorhan expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. proteccion infantil Hoy, día 10 de Febrero, es el día de la seguridad en Internet y sobre todas las cosas importantes que proteger, en la cúspide de la pirámide, se encuentran los niños. Internet ha revolucionado el mundo, el mundo de todos. Los conocimientos que nos llegan por medio de la red son casi ilimitados, así como la comodidad que nos ofrece al permitirnos realizar compras, contactar con estamentos oficiales, etc., han hecho que la vida sea diferente. Pero como si Internet fuera un enorme cubo los hay que lo usan para volcar su basura y esta nos salpica a todos, es en este punto donde debemos proteger a los niños: Hoy por hoy existen múltiples programas de protección parental que limitan la navegación por Internet, impidiendo que se visiten ciertas páginas y que los más pequeños
  • 43. puedan tener acceso a contenidos peligrosos. En PortalProgramas podéis encontrar muchos programas de este tipo, de entre ellos os mostramos algunos: 1.- Amigo Control Parental Este programa tiene como objetivo fundamental el proteger a los más pequeños de la casa a la hora de emplear el ordenador, así como ayudar a los padres y educadores en la educación de los mismos. Se trata de un programa que aplica técnicas parentales mejoradas, para la protección de nuestros hijos de factores externos, limitando ciertos contenidos de internet poco recomendables, limitando actividades siempre de forma personalizable, etc. Descargar Descargar Amigo Control Parental Desarollador: Aconfi, S.L. 2.- Parental Esta aplicación no está diseñada para espiar los movimientos del niño, sino para educarlo en el ámbito del autocontrol y la confianza con los padres. De esta forma, se le asegura su privacidad, pero se le obliga a seguir unas normas para el tiempo de uso del ordenador. Parentalse encarga automáticamente de hacer todo esto indicando el tiempo restante de uso de la máquina y apagándola cuando el tiempo se acaba. Descargar Descargar Parental Desarollador: Parental 3.-Control Kids Control Kids es un filtro parental que restringe la navegación en Internet a sitios para adultos o pornográficos. El programa prohíbe el acceso a sitios considerados peligrosos para los niños y adolescentes gracias a diferentes filtros. Esta aplicación esta
  • 44. desarrollada para añadirse a la seguridad que tengas instalada en tu ordenador para prevenir que tus hijos se vean afectados por contenidos realmente peligrosos que pueden alterar su comportamiento natural. DescargarDescargar Control Kids Desarollador: Esther Susano Proxym 4.- nysBlock Hogar [caption id="attachment_3219" align="aligncenter" width="453" caption="Control por medio de contraseña"] [/caption] nysBlock Hogar es un software de bloqueo de programas inseguros y peligrosos. El programa esta instalado en un servidor y en cada uno de los clientes asociados a la red local. nysBlock posee cuatro listas negras de bloqueo: - Sistema: Esta lista es para bloquear funciones de Windows, tales como:  Firewall de Windows  Panel de control  Utilidad de configuración del sistema (msconfig)  Editor de Registro (regedit)  Administrador de tareas de Windows - Chat: Lista con bloqueos para programas de Chat, algunos de los más conocidos son:  MSN Messenger  Digsby  Trillian  ICQ  Yahoo! Messenger
  • 45. Y páginas Web que buscan el mismo fin:  meebo  webmessenger  igoogle  latinchat - P2P: Lista con programas para bajar música, películas, programas, y otros:  Ares  Kazaa  EMule  UTorrent  Chilewarez - Contenido Ocioso: Lista con expresiones que hacen perder el tiempo del usuario en horario de trabajo, entre ellos encontramos:  Fotolog  Facebook  Radio online  Juegos  Pornografía  YouTube Todas las listas son configurables para grupos de usuarios o solamente un usuario y van aumentando al incorporarse nuevos conceptos. Descargar Descargar nysBlock HogarDesarollador: technys 5.- Aobo
  • 46. BlockerAobo Blocker bloquea sitios web no deseados y filtrar sitios web porno. Posee un eficaz y eficiente algoritmo de filtrado para bloquear todos los sitios pornograficos. Entre sus principales características podemos destacar:  Bloque de sitios web no deseados por URL o palabras clave  Bloque sitios web porno automáticamente antes de que se carguen en los navegadores.  Bloqueo de visitando sitios web visitados no deseados con proxies web  Trabaja con todos los navegadores web populares  Se ejecutar en modo indetectable  Protegido por contraseña Cómo montar una red Wi-Fi en casa por José Julio Ruiz | 10-Agst-2004 Comenzamos una serie de tutoriales sobre Bluetooth y
  • 47. Wi-Fi (Wireless Fidelity) es i-Fi. En esta prim. Introducción una de las tecnologíera entrega veremos cómo montar una red 802.11 en casa y aclararemos algunos conceptos.1as de comunicación inalámbrica (sin cables - wireless) más extendidas. También se conoce como WLAN o como IEEE 802.11Los subestándares de Wi-Fi que actualmente más se están explotando en el ámbito comercial son: - 802.11b: · Pionero en 1999 y actualmente el más extendido. · Opera en la banda de los 2.4 GHz. · Alcanza una velocidad máxima de 11 Mb/sg. - 802.11g: · Estrenado en 2003 · Opera en la banda de los 2.4 GHz. · Alcanza una velocidad máxima de 54 Mb/sg. Cuando compremos nuestro hardware Wi-Fi debemos fijarnos para qué subestándar fue diseñado, porque de nada nos sirve tener un Access Point .11b (11 Mb/sg) y un accesorio Wi-Fi .11g (54 Mb/sg) ya que de todas maneras nos estaremos conectando a 11 Mb/sg. 2. Conceptos básicos: Repasemos la terminología que usaremos en este y otros futuros tutoriales:
  • 48. Access Point: (Punto de Acceso o AP)Es el dispositivo que hace de puente entre la red cableada y la red inalámbrica. Podemos pensar que es, de alguna manera, la antena a la que nos conectaremos. Accesorio Wi-Fi: Es el accesorio adicional que usaremos para incoporar el estándar 802.11 a nuestro equipo (PDA, ordenador portátil o de sobremesa), en caso de no tener Wi-Fi integrado. Estos accesorios pueden encontrarse en formato de tarjetas PCMCIA (para portátil), PCI y USB (para ordenador de sobremesa) y esperamos que muy pronto en formato SD (Secure Digital) para nuestros PDAs Palm OS. Dirección IP: (IP Address) Una dirección IP es una serie de números que identifica a nuestro equipo dentro de una red. Distinguimos entre IP pública (ej. 80.20.140.56), cuando es la dirección que nos identifica en Internet (por ejemplo la IP de tu router ADSL en Internet) e IP privada (ej. 192.168.0.2 ), que es la dirección que identifica a un equipo dentro de una red local (LAN).
  • 49. Si, por ejemplo, pensamos en una red local con un router ADSL, los PCs o equipos conectados a la red tendrán sólo IP privada, mientras que el router tendrá una IP pública (su identificación en Internet) y una IP privada (su identificación en la red local). Máscara de subred: (Subnet address) Cifra de 32 bits que especifica los bits de una dirección IP que corresponde a una red y a una subred. Normalmente será del tipo 255.255.255.0 Puerta de enlace: (Gateway) Es la dirección IP privada de nuestro router. Servidores DNS: (DNS server) Las páginas web también tienen su dirección IP pública y es a través de ésta dirección como en realidad nos conectamos a ellas. Pero claro, es más sencillo memorizar o escribir el nombre del dominio (www.google.es) que su dirección IP (216.239.59.104). Para no memorizar la retahíla de números tenemos los servidores DNS. Un servidor DNS es un servidor en donde están almacenadas las correlaciones entre nombres de dominio y direcciones IP. Cada vez que cargamos una página web, nuestro equipo (PDA, portátil u ordenador de sobremesa) envía una petición al servidor DNS para saber la dirección IP de la página que queremos cargar, y es entonces cuando hace la conexión.
  • 50. Probablemente estaréis familiarizados con eso de "servidor DNS primario" y "servidor DNS secundario". El primario es el "principal" y el secundario es el de emergencia que usará nuestro ordenador en caso de que el primario no funcione. WEP: (Wired Equivalent Privacy) Es el tipo de encriptación que soporta la tecnología Wi- Fi. Su codificación puede ir de 64 bits hasta 128 bits. WEP está deshabilitado por defecto. SSID: (Service Set Identification) Nombre con el que se identifica a una red Wi-Fi. Este identificador viene establecido de fábrica pero puede modificarse a través del panel de administración del Punto de Acceso. DHCP: Tecnología utilizada en redes que permite que los equipos que se conecten a una red (con DHCP activado) auto-configuren los datos dirección IP, máscara de subred, puerta de enlace y servidores DNS, de forma que no haya que introducir estos datos manualmente. Por defecto la mayoría de los routers ADSL y los Puntos de Acceso tienen DHCP activado. Dirección MAC: (MAC address - Media Access Control address) Es el código único de identificación que tienen todas las tarjetas de red. Nuestro accesorio Wi-Fi o nuestro PDA con Wi-Fi integrado, al ser un dispositivo de red, también tendrá una dirección MAC única.
  • 51. Las direcciones MAC son únicas (ningún dispositivo de red tiene dos direcciones MAC iguales) y permanentes (ya que vienen preestablecidas de fábrica y no pueden modificarse). Infraestructura: Modo de conexión en una red wireless que define que nuestro equipo (PDA, portátil u ordenador de sobremesa) se conectará a un Punto de Acceso. El modo de conexión deberá de especificarse en la configuración de nuestro equipo o del accesorio Wi-Fi. Por defecto viene activado este modo. Ad-Hoc: (Punto a Punto) Modo de conexión en una red wireless que define que nuestro equipo (PDA, ordenador portátil o de sobremesa) se conectará directamente a otro equipo, en vez de hacerlo a un Punto de Acceso. Ad-Hoc es una forma barata de tener conexión a Internet en un segundo equipo (por ejemplo un PDA) sin necesidad de comprar un Punto de Acceso. Para este uso la configuración se dificulta ya que tenemos que configurar en el ordenador que tiene la conexión a Internet un programa enrutador o una conexión compartida. 3. ¿Qué necesito para montar una red Wi-Fi en casa? La mejor configuración es partir de una conexión ADSL con router, aunque también podremos montar una red Wi-Fi en casa a partir de otras configuraciones (cable, etc.).
  • 52. Si ya contamos con esto, necesitaremos además:  Punto de Acceso Wi-Fi.  Si nuestro ordenador o portatil no incluye WiFi, necesitaremos un accesorio que nos de este tipo de conectividad.
  • 53. 4. Configuración del Access Point La forma de ajustar los siguientes parámetros dependerá de los fabricantes, así que hablaré de ellos genéricamente. 1. Sacar el AP de su caja y conectarlo a la red eléctrica con el alimentador incluido en la caja. 2. Conectar el AP al router ADSL con el cable cable de red del AP (también incluido en la caja). 3A. Si tenéis DHCP activado en el router ADSL en principio no habrá que configurar ningún parámetro adicional en el AP. 5. Configuración de nuestro equipo La configuración de un PDA Palm OS lo veremos en detalle en un próximo tutorial. Para conectar un ordenador portátil o de sobremesa, consulta el manual de usuario para información detallada de la configuración. Lo más normal es que tengáis una herramienta de gestión de la conexión Wi-Fi, incluida con el accesorio, donde podáis configurar los parámetros necesarios, así como ver la potencia de la señal. Si tenéis DHCP activado sólo tendréis que abrir este programa, escanear las redes disponibles, seleccionar la vuestra y conectaros a ella. La configuración se realizará automáticamente.
  • 54. Si tenéis DHCP desactivado tendréis que establecer manualmente la dirección IP de vuestro equipo, la puerta de enlace, la máscara de subred y los servidores DNSs. Después de hacer esto abrid el programa de configuración de Wi-Fi de vuestro equipo o del accesorio que hayáis instalado y seguíd los pasos del párrafo anterior. 6. Consideraciones y consejos sobre alcance y cobertura El alcance de la señal de nuestra red Wi-Fi dependerá de:  La potencia del Punto de Acceso.  La potencia del accesorio o dispositivo Wi-Fi por el que nos conectamos.  Los obstáculos que la señal tenga que atravesar (muros o metal).  Cuanto más lejos (linealmente) quieras llegar, más alto deberás colocar el Punto de Acceso. Muchos de los actuales APs vienen preparados para poderlos colgar en la pared.
  • 55. Si quieres llegar lejos, evita también interferencias como microondas o teléfonos inalámbricos. Si la señal te llega debilitada, utiliza un amplificador de señal o si es posible, monta una nueva antena de más potencia al AP (los Puntos de Acceso de gama baja NO lo permiten) o una antena exterior al accesorio (normalmente sólo para formatos PCMCIA o PCI). En próximos tutoriales veremos cómo configurar nuestro PDA para acceder a una red Wi-Fi, así como el tipo de cosas que podemos hacer con nuestro ordenador de bolsillo wireless. tipos de pc Ahora el uso de la computadora es muy común, tanto en empresas, negocios y algunos hogares. Pero cuando personas relacionadas con las antes mencionadas interactúan con la computadora la mayoría de las veces solo piensan que todas las computadoras son del mismo tipo. Además que quieren tener mas información acerca de las computadoras y no saben ?los tipos de computadoras que existen? y esto es una limitante para que las personas, que interactúan con ellas, sepan acerca de la computación Las computadoras se clasifican en súper computadoras, macro computadoras o mainframes,
  • 56. mini computadoras y micro computadoras o PC. Las clasificaciones contienen un cierto tipo de computadoras con características especificas. Supercomputadoras Una supercomputadora es le tipo de computadora más potente y más rápido que existe en un momento dado. Estas maquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea especifica. Un ejemplo de súper computadora es una computadora que se utiliza para el manejo de un grupo de maquinas ensambladoras de productos metálicos. Macrocomputadoras o mainframes Las macro computadoras son también conocidas como mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. De alguna las mainframes son más poderosos que las súper computadoras porque soportan mas programas simultáneamente. Pero las súper computadoras pueden ejecutar un solo programa más rápido que mainframe.
  • 57. En el pasado las mainframes ocupaban cuartos completos hasta pisos enteros de algún edificio, hoy en día, un mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada. Mini computadoras En 1960 surgió la mini computadora, una versión más pequeña de la macrocomputadora. Al ser orientada a tareas especificas, no necesitaba de todos los periféricos que necesita un mainframe, y esto ayudo a reducir el precio y costo de mantenimiento. Las mini computadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una mini computadora, es un sistema multiproceso (varios procesos) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, y otras aplicaciones. Micro computadoras o PC Las microcomputadoras o computadoras personales
  • 58. (PC) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es una computadora en un chip, o sea un circuito integrado independiente. Las PC son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. importancia del atube catcher Es bastante bueno cumpliendo su cometido: descargar y convertir videos de Webs. Solo le pongo la pega de ser algo lioso para alguien que no quiere complicarse demasiado. Para las occiones avanzadas hay que saber algo de ingles y cuidado con que marcais en la instalación. Lo mejor: Hace bien su trabajo. Instalación rapida y simple. Libertad de elegir entre bastantes formatos. Lo peor: En la instalación te intentan colar mas programas de lo debido. Si no tienes demasiadas nociones sobre formatos puede llegar a ser complicado. En opciones avanzadas hay que saber algo de ingles. smartphone Smartphone (teléfono inteligente en español) es un término comercial para denominar a un teléfono móvil con características similares a las de un ordenador personal. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de
  • 59. casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término "Inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil, o simplemente el sistema operativo móvil que posee, diferenciando su uso mediante una exclusiva disposición de los menúes, teclas, atajos, etc. El completo soporte al correo electrónico parece ser una característica indispensable encontrada en todos los modelos existentes y anunciados en 2007, 2008, 2009 y 2010. Casi todos los teléfonos inteligentes también permiten al usuario instalar programas adicionales, normalmente inclusive desde terceros, pero algunos vendedores gustan de tildar a sus teléfonos como inteligentes aun cuando no tienen esa característica. Algunos ejemplos de teléfonos denominados inteligentes son: Serie MOTO Q de Motorola, Nokia series E y series N, BlackBerry, iPhone y Nexus One. Entre otras características comunes está la función multitarea, el acceso a Internet via WiFi, a los programas de agenda, a una cámara digital integrada, administración de contactos, acelerometros y algunos programas de navegación así como ocasionalmente la habilidad de leer documentos de negocios en variedad de formatos como PDF y Microsoft Office.
  • 60. Inmuniza tu PC contra los virus mas conocidos de USB Este post es para todos aquellos que quieran intentar algo diferente para defenderse de los famosos virus memorias USB. Esta técnica es una recopilación de varias en internet, modificadas y mejoradas, con las siguientes ventajas: - NO necesitas antivirus ni programas (más memoria RAM para tu windows). - Puedes usarla al tiempo que tu antivirus (yo no tengo antivirus, pero igual). - Gratis, legal (sin piratear nada), puedes aplicarlo donde quieras sin internet. PASOS: A) Deshabilitar el autorun.inf Esto evitará que corran los virus de memorias USB. Cuando insertes una memoria USB con virus, esta no va a poder abrirse, excepto si haces click derecho en laUnidad>Explorar. 1. Dirígete a Inicio, y haz click en Ejecutar. 2. Escribe gpedit.msc y dale al botón aceptar.
  • 61. 3. Se abrirá una ventana titulada Directiva de Grupo. Ahí, en el panel izquierdo, dirígete a Configuración local de equipo > Plantillas administrativas > Sistema. 4. Ahora, en el panel de la derecha, verás que existe una serie de reglas que no están configuradas. Búsca la que diga "Desactivar reproducción automática", y haz doble click sobre ella. 5. En "Propiedades", selecciona la opción "habilitada" y en donde dice"Desactivar reproducción automática en" selecciona "Todas las unidades". 6. Puedes cerrar la ventana. B) Inmunizar TODAS tus memorias USB Esto evitará que muchos virus contagien tus memorias (no es infalible, pero la mayoría de los virus serán incapaces de meterse). Es un método casero. 1. En el explorador de windows, abrir tu memoria USB (asegúrate que no tenga virus). 2. Crea una carpeta llamada "autorun.inf". 3. Click derecho en la carpeta -> "Propiedades". 4. habilita las casillas que dicen "Solo lectura" y "Oculto". 5. Click en Aceptar. 6. (Opcional) Crear un archivo llamado "recylcler" a secas, y hacerle lo mismo que al directorio autorun.inf. Con esto muchos virus no podrán crear su "autorun.inf" en dicha memoria. Para que sea mas facil, puedes guardar una copia de dicha carpeta en alguna parte de tu disco duro, y cada memoria que te pasen
  • 62. simplemente copias la carpeta y pegas en la memoria USB. C) Evitar que corran ejecutables de virus conocidos Con esto evitaremos que ciertos archivos .exe puedan correr en el sistema. Esto es util porque he notado que los víruses de memorias USB se repiten mucho ( tecnologia de los monitores Monitor VGA: Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas. Características:
  • 63.  Soporte de 720×400 píxeles en modo texto.  Soporte de 640×480 píxeles en modo gráfico con 16 colores.  Soporte de 320×200 píxeles en modo gráfico con 256 colores.  Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo. Monitor SVGA: SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA. SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones. Características:  Resolución de 800×600, 1024_768 píxeles y superiores.
  • 64.  Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.  Clasificación según tecnología de monitores  En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.Monitores CRT: Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.  Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.
  • 65. Funcionamiento: Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla. Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo. Ventajas:  Excelente calidad de imagen (definición, contraste, luminosidad).  Económico.  Tecnología robusta.  Resolución de alta calidad. Desventajas:  Presenta parpadeo por el refrescado de imagen.  Consumo de energía.  Generación de calor.  Generación de radiaciones eléctricas y magnéticasAlto peso y tamaño. Pantallas LCD:
  • 66. A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros. Angulo limitado de visibilidad. Brillo limitado.  Bajo tiempo de respuesta de píxeles.  Contiene mercurio.
  • 67. Pantallas Plasma: La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow. Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad. Funcionamiento: El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado. Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.
  • 68. El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible. Ventajas:  Excelente brillo.  Alta resolución.  Amplio ángulo de visión.  No contiene mercurio.  Tamaño de pantalla elevado. Desventajas:  Vida útil corta.  Coste de fabricación elevado, superior a los LCD.  Consumo de electricidad elevado.  Poca pureza del color.  Consumo energético y emisión de calor elevada.
  • 69. ¿Qué es la resolución de pantalla? Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (“X”), el cual se coloca al principio y el número de filas (“Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar: Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo tipos de microprocesadores  2006: INTEL CORE Y CORE 2 DUO Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU
  • 70. bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.  2007: AMD PHENOM Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado,
  • 71. tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.  2008: INTEL CORE NEHALEM Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa
  • 72. base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.  2008: AMD PHENOM II Y ATHLON II Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB.  2010: INTEL CORE SANDY BRIDGE Los próximos procesadores de Intel de la familia core  2011: AMD BULLDOZER Los próximos procesadores de AMD de la familia Fusion
  • 73. html 5 HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión importante del lenguaje básico de la World Wide Web, HTML. HTML 5 especifica dos variantes de sintaxis para HTML: un «clásico» HTML (text/html), la variante conocida como HTML5y una variante XHTML conocida como sintaxis XHTML5 que deberá ser servida como XML (XHTML) (application/xhtml+xml).1 , 2 Esta es la primera vez que HTML y XHTML se han desarrollado en paralelo. El desarrollo de este código es regulado por el Consorcio W3C. [editar]Nuevos elementos HTML 5 establece una serie de nuevos elementos y atributos que reflejan el uso típico de los sitios web modernos. Algunos de ellos son técnicamente similares a las etiquetas <div> y <span>, pero tienen un significado semántico, como por ejemplo <nav> (bloque de navegación del sitio web) y <footer>. Otros elementos proporcionan nuevas funcionalidades a través de una interfaz estandarizada, como los elementos <audio> y <video>. Mejoras en el elemento <canvas> Algunos elementos de HTML 4.01 han quedado obsoletos, incluyendo elementos puramente de presentación, como <font> y <center>, cuyos efectos son manejados por el CSS. También hay un renovado enfasis en la importancia del scripting DOM para el comportamiento de la web.
  • 74. [editar]Diferencias con HTML 5 y XHTML Nuevas etiquetas:  article, section. Para indicar partes de un artículo  datalist. Opción de autocompletar con una lista de valores.  details, legend. Para mostrar / ocultar texto sin javascript.  dialog, dt, dd. Para escribir conversaciones.  canvas. Para mostrar gráficos.  ins (inserciones), del (borrados) con marca de tiempo  figure, figcaption. Para asociar un contenido multimedia (una foto, un vídeo, etc) a un título o leyenda.  keygen. Para generar una clave criptográfica y enviarla.  menu, command. Describir un menú con opciones.  output, input. Formularios. Indicar si son datos de entrada o de salida.  progress, meter. Barra de progreso de una tarea.  ruby, rp (texto alternativo), rt (elemento del alfabeto). Indica texto escrito en alfabetos japoneses, chinos …  video. Para mostrar videos sin ningún plugIn. Atributos mínimos de todas las etiquetas (los mas interesantes):
  • 75.  Dir. Indica la direccionalidad del contenido, los posibles valores son: ltr (de izquierda a derecha) y rtr (de derecha a izquierda)  Contenteditable. Para indicar que el elemento es editable por el usuario. Muy interesante, ya que ahora podremos editar cualquier cosa de manera trivial para el desarrollador, no solamente los elementos de un formulario. Permitirá indicar que elementos son modificables.  contextmenu. Para indicar un menú contextual sobre un elemento. Pensado para poder emular una aplicación de escritorio desde el navegador.  data-* Donde el asterisco puede ser cualquier nombre. Esto permite atributos personalizados, que luego podremos obtener con Javascript. Por ejemplo el atributo data-foo-bar="" se podrá acceder mediante el API DOM con element.dataset.fooBar (elimina los separadores ‘-’ ) Ejemplo de código HTML 5 que utiliza esta funcionalidad para guardar valores en atributos personalizados: creative commons Creative Commons (CC) es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de nueva legislación y nuevas tecnologías. Fue fundada por Lawrence Lessig, profesor dederecho en la Universidad de Stanford y especialista en ciberderecho, que la presidió hasta marzo de 2008. Creative Commons (en español: «bienes