Las conferencias web permiten a 2-20 personas interactuar compartiendo documentos y aplicaciones de forma similar a las reuniones presenciales. Las videoconferencias web son reuniones virtuales a través de Internet donde los participantes en diferentes ubicaciones pueden ver lo que el anfitrión comparte en su pantalla.
Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí
1. Una conferencia web es similar a una
reunión personal porque permiten a los asistentes
interactuar entre sí, participan entre 2 y 20 personas y
pueden compartir documentos y aplicaciones.
Las videoconferencias web son reuniones ‘virtuales’ a
través de Internet cuyos participantes trabajan en
distintas ubicaciones físicas. La sala de reuniones real
se sustituye por el escritorio del ordenador del
anfitrión de la reunión (la persona que la ha
organizado). Cada participante se sienta ante su propio
ordenador, donde puede ver todo lo que el presentador
va mostrando en su pantalla (función de ‘desktop
sharing’ o escritorio compartido).
wiziq
elluminate
televisión digital a (o DTV, de sus siglas en
inglés: Digital TV) se refiere al conjunto de tecnologías
de transmisión y recepción de imagen y sonido, a
través de señales digitales. En contraste con la
televisión tradicional, que codifica los datos de
manera analógica, la televisión digital codifica sus
señales de forma binaria, habilitando así la posibilidad
de crear vías de retorno entre consumidor y productor
de contenidos, abriendo la posibilidad de crear
aplicaciones interactivas, y la capacidad de transmitir
varias señales en un mismo canal asignado, gracias a
2. la diversidad de formatos existentes.
Un sistema integro de televisión digital, incorpora los
siguientes actores:
Cámaras de video digitales, que trabajan a
resoluciónes mucho más altas que las cámaras
analógicas.
Transmisión digital
Display digital, de alta resolución (Ej: LCDs,
Plasmas)
red social es una estructura social compuesta de
personas , las cuales están conectadas por uno o
varios tipos de relaciones, tales como amistad,
parentesco, intereses comunes, intercambios
económicos, relaciones sexuales, o que comparten
creencias, conocimiento o prestigio.
9 Badoo
8 Metroflog
7 Menéame
6 MySpace
5 Hi5
4 Yahoo Respuestas
3 Twitter
2 Facebook
1 YouTube
navegador
Un navegador o navegador web (del inglés, web
browser) es un programa que permite ver la
información que contiene una página web
El navegador interpreta el código, HTML
3. generalmente,en el que está escrita la página web y lo
presenta en pantalla permitiendo al usuario interactuar
con su contenido y navegar hacia otros lugares de la
red mediante enlaces o hipervínculos.
La funcionalidad básica de un navegador web es
permitir la visualización de documentos de texto,
posiblemente con recursos multimedia incrustados.
Los documentos pueden estar ubicados en la
computadora en donde está el usuario, pero también
pueden estar en cualquier otro dispositivo que esté
conectado a la computadora del usuario o a través de
Internet, y que tenga los recursos necesarios para la
transmisión de los documentos (un software servidor
web).
Tales documentos, comúnmente denominados paginas
web, poseen hipervínculos que enlazan una porción de
texto o una imagen a otro documento, normalmente
relacionado con el texto o la imagen.
Tipos de navegadores o exploradores web
Algunos de los navegadores o exploradores web más
populares son: Internet Explorer, Mozilla Firefox,
Safari, Opera, Google Chrome y Flock.
Otros navegadores no tan conocidos son: Maxthon,
Avant, DeepNet, PhaseOut, SpaceTime, Amaya...
componentes internos de la pc
Motherboard
CPU
BIOS
RAM
Tarjeta de Video
Tarjeta de Sonido (Opcional)
4. Tarjeta de Red (Opcional)
Unidades de Almacenamiento
Fuente de Poder
tecnologia wifi
¿Qué es la tecnología wi-Fi?
Wi-Fi (Wireless Fidelity) es la tecnología utilizada en
una red o conexión inalámbrica, para la comunicación
de datos entre equipos situados dentro de una misma
área (interior o exterior) de cobertura.
Conceptualmente, no existe ninguna diferencia entre
una red con cables (cable coaxial, fibra óptica, etc.) y
una inalámbrica. La diferencia está en que las redes
inalámbricas transmiten y reciben datos a través de
ondas electromagnéticas, lo que supone la eliminación
del uso de cables y, por tanto, una total flexibilidad en
las comunicaciones.
De entre todos los tipos de redes inalámbricas, son las
redes inalámbricas IEEE 802.11b las que son
conocidas como Wi-Fi (Wireless Fidelity), debido a su
amplia difusión en el mercado. Los productos y redes
Wi-Fi aseguran la compatibilidad efectiva entre
equipos, eliminando en los clientes las dudas que
puedan surgir a la hora de comprar un nuevo terminal.
El Wi-Fi no es, sin embargo, una alternativa a una red
convencional, sino que es una nueva tecnología que
viene a complementar a aquellas. Ambas redes
(inalámbricas y de cables) ofrecen las mismas
expectativas de comunicaciones (compartir
periféricos, acceso a una base de datos o a ficheros
compartidos, acceso a un servidor de correo, navegar
5. a través de Internet, etc.).
En una red inalámbrica cada ordenador dispone de un
adaptador de red inalámbrico. Estos adaptadores se
conectan enviando y recibiendo ondas de radio a
través de un transceptor (transmisor-receptor), que
puede situarse en cualquier lugar, interior o exterior,
dentro del área de cobertura, sin la preocupación del
cableado.
Las redes inalámbricas permiten la transmisión de
datos a velocidades de 11 Mbps o incluso superiores,
lo que proporciona rapidez suficiente para la mayoría
de las aplicaciones.
Se puede decir que el entorno Wi-Fi es la solución
idónea que unifica movilidad y conectividad en la
transmisión de datos, ofreciendo una nueva posibilidad
de "oficina móvil", se esté donde se esté.
pc para jugar
A que jugamos?
NUESTRAS PREFERENCIAS Y HÁBITOS DE JUEGO
PUEDEN HACER UNA DIFERENCIA A LA HORA DE
ELEGIR EL HARDWARE.
Una manera de ajustar el presupuesto a la hora de
elegir componentes consiste en tener en cuenta
cuáles son los tipos de juegos que nos más nos
gustan. Hay gamers absolutos, que gustan de
experimentar con títulos de todos los géneros, pero
6. también hay muchos gamers especializados, que
prefieren enfocarse puntualmente a la estrategia, las
aventuras, las carreras, etc.
En una computadora hay 3 puntos clave que definen su
desempeño: procesador, cantidad de memoria y placa
de video. Aquí, la clave es saber sobre cuál de estas 3
patas prefieren apoyarse nuestros juegos preferidos.
Es decir: hay títulos que requieren una placa de video
muy poderosa, pero que se las arreglan con un procesa
dar modesto, y viceversa.
En la actualidad, para la mayoría de los juegos basta
con tener un procesador de doble núcleo de gama
media-baja, mientras que la placa de video se ha
convertido en un factor fundamental. Esto se debe a
dos factores: por un lado, los microprocesadores
alcanzaron un nivel de desarrollo tan alto, que incluso
los modelos económicos son suficientemente
poderosos. En segundo lugar, la calidad gráfica de los
juegos no para de avanzar, lo que, obviamente, exige
más al chip gráfico. No obstante, todavía se puede
señar algún tipo de diferenciación basada en géneros.
Veamos qué componente sobrecarga más cada tipo de
juego:
Como la mayoría jugamos a títulos de acción (los
simuladores quedan para unos pocos raros y
sabiondos). es válido afirmar que la tarjeta gráfica es,
hoy en día, el componente gamer fundamental. El
procesador, en tanto, ocupa un lugar no tan estelar
como en el pasado. Sí afecta el rendimiento, pero
hasta los modelos económicos brindan la potencia
suficiente para jugar de manera acepta.
Placas de Video
7. LAS TARJETAS ENCARGADAS DE LOS GRÁFICOS SON
LA ESTRELLA DE CUALQUIER PC GAMER ACTUAL.
La pregunta suele ser directa, sin preámbulos: ¿Qué
placa de video me compro para jugar? Pues bien,
amigos, de esta manera no hay forma de responder.
Antes es necesario saber algo fundamental: qué tipo
de monitor tendrá la PC.
La resolución de la pantalla nos da una indicación
clara y real de cuánto trabajo deberá realizar la tarjeta
gráfica en cada caso. Por ejemplo: en una pantalla a
1024 x 768 píxeles, la tarjeta tendrá que "dibujar"
yalmacenar en su memoria 786432 píxeles. A la
resolución de 1280 x 1024, la cifra se eleva a 1310720
píxeles. Este juego teórico sirve para comenzar a
darnos cuenta de las implicancias de la resolución.
Volvamos a la pregunta: ¿a qué resolución nos gusta
ejecutar nuestros juegos? En los monitores LCD, los
juegos se ven mejor a la resolución nativa de la
pantalla. Y en los CRT (de tubo). sabemos que hay
resoluciones que se adaptan más o menos bien al
tamaño del marco de la pantalla. La resolución elegida
debería ser nuestra "medida objetivo", y nos ayudará a
elegir la placa de video.
Si tenemos un monitor chico (y no pensamos
cambiarlo). como puede ser un CRT de 17 pulgadas,
una resolución de 1024 x 768 será suficiente para que
los juegos se vean aceptablemente bien. Para esto nos
bastará con una tarjeta gráfica de gama baja o media.
Si tenemos una pantalla de 15 pulgadas con resolución
de 800 x 600, podría bastarnos hasta con la potencia
del video onboard del motherboard. Ahora bien, la
realidad es que el estándar actual en monitores está
en las 19 pulgadas widescreen, con una resolución de
8. 1440 x 900 píxeles ... y los gamers ya buscan
monitores de 20 o 22 pulgadas (1680 x 1050 píxeles).
Para estos casos, ya estamos hablando de tarjetas de
video de gama media o alta, con 512 o más megabytes
de RAM.
ANTIALlASING y FILTROS
Considerada la importancia de la resolución,
deberemos agregar otros factores que también son
responsabilidad de la placa de video. El primero es el
suavizado de líneas, también llamado antialiasing. Se
trata de un procedimiento incorporado en las placas de
video que les permite eliminar los típicos dientes de
sierra que se forman en los objetos 3D, principalmente
en los bordes.
Hay distintos niveles de antialiasing: 2x, 4, 8x y hasta
16x en las tarjetas de gama alta. Cuanto más alto es el
valor, mayor será el postprocesado que requiera la
imagen, mayor el impacto negativo en la performance
y mejor el resultado visual. El uso de antialiasing es
demandante, sobre todo, en lo que respecta a la
velocidad de la memoria de video. Por esa razón, es
poco recomendable si se tiene video onboard o una
tarjeta gráfica de gama baja, soluciones cuyo punto
más flojo es, justamente, la velocidad de la memoria.
El filtro anisotrópico se encarga de darle nitidez a las
texturas aplicadas sobre objetos 3D, a fin de evitar que
se vean borrosas y con poca profanidad de campo.
Siempre que se utiliza antialising, conviene aplicar
también filtro anisotrópico. Este filtro también exige
poder de proceso en el chip gráfico y su uso se hace
más pausible en las tarjetas de gama media y alta.
SOMBREADO EN DX 9 y DX 10
9. La mayoría de los juegos que ofrecen alta calidad
visual requieren, hoy en día, como mínimo un unidad
de proceso gráfico compatible con DirecX 9c. Esto es
algo muy fácil de obtener, porque está presente en el
hardware desde las GeForce 6000 o Radeon X800. Sin
embargo, si se quiere experimentar la máxima calidad
visual que permite la tecnología actual, hay que ir por
placas compatibles con DirectX 10. Esto sería:
GeForce 8000 o superior o, por el lado de AMD/AT!.
Radeon HD 3000 o superior.
La diferencia en calidad visual entre los modos DX9 y
DXl O depende mucho de cómo haya sido programado
cada juego en particular. En ciertos casos, la
diferencia es prácticamente imperceptible, mientras
que en otros (que por ahora son los menos) se
aprovecha máximo las posibilidades del hardware
moderno y se puede apreciar una mejora. En todo
caso, conviene saber que nuestra solución gráfica
debe ser compatible con DirectX 10.
ATI VERSUS NVIDIA
Los dos principales fabricantes de chips gráficos
mantienen una durísima competencia y suelen tener
en el mercado modelos de similar desempeño y precio,
que, más o menos, se equiparan. Aunque nunca
ofrecen exactamente el mismo rendimiento, puede
decirse que hay un equilibrio. En la tabla siguiente
podemos observar los principales modelos y sus
contrapartes.
10. ACELERACIÓN DE FISICAS
Los chips gráficos integrados en las placas de video
reciben el nombre de GPU (Unidad de Procesos
Gráficos) y recientemente han superado a los
procesadores de Intel y AMO en capacidad de cálculo
teorice. Debido a esto, NVIDIA y ATI están
promoviendo la idea de utilizar las GPU para realizar
otro tipo de tareas, aparte de generar los gráficos 3D.
Uno de los trabajos más interesantes para los que se
puede aprovechar el inmenso poder 8e las placas de
video actuales, es la aceleración de cálculos físicos en
un juego. Gracias a la aceleración de físicas, se
pueden generar efectos más precisos y realistas de
ruptura de vidrios, polvo, viento y comportamiento de
los objetos en general. Lo bueno,es que al utilizar la
GPU para acelerar físicas, no sólo se gana en calidad,
sino en performance.
Hoy en día, todas las placas de video de NVIDIA de
serie GeForce 8 y superiores ofrecen la posibilidad de
funcionar como aceleradoras de físicas bajo el
estándar PhysX. Sólo necesitan los drivers
actualizados y, desde luego, un juego que haya sido
programado específica mente para PhysX. En la
actualidad, hay un número limitado pero en aumento
de juegos que suportan PhysX, como Mirrors Edge,
Warmonqer, Unreal Tournamente 3 (actualizado con un
patch).
En cuanto al hardware, se puede utiliza, la misma
placa de video para efectuar la aceleración de físicas y
el rendering 3D o utilizar dos tarjetas separadas (la de
menor performance para físicas).
La compañía AMD / ATI, por su parte, también está
trabajando en el tema y adscribe al estándar de
11. aceleración de físicas llamado Havok, pero por el
momento no hay juegos que brinden esta capacidad en
las placas Radeon. Recientemente, Intel anunció que
también incluiría soporte para Havok en sus futuras
GPU, así que esta área seguramente crecerá mucho en
el futuro cercano. De hecho, se espera que la
aceleración de físicas se implemente como estándar
dentro del futuro DirectX 11. De esa forma, se evitaría
una inútil guerra de estándares entre PhysX y Havok
(en la que, por el momento, NVIDIA lleva la delantera).
Procesadores
EL MOTOR DE LA PC TIENE UNA IMPORTANCIA
FUNDAMENTAL. AQUÍ VEMOS LAS OPCIONES DE
INTEL Y AMD.
Hoy estamos en la era de lbs pracesadores de
múltiples núcleos. Sin embargo, el software ha tardado
un poco én alcanzar el ritmo del hardwaré.
Recordemos queen 2007 todavía pocos juegos
soportaban pracesadores de doble núcleo. Es decir,
utilizaban sóló 1 núcleo. Después, en 2008, la mayoría
de los títulos (muchos de los cuales todavía están dé
moda)sólo estaban optimizados para chips de 2
núcleos, a pesar de que en mercado los procesadores
Quad Core ya no eran novedad. Recién con la aparición
de GTA IV, que viene preparado para aprovechar al
máximo 2, 3 o 4 núcleos, los pracesadores de 4
núcleos se volvieron deseables para el jugador medio.
Todavía son pocos los juegos diseñados para sacar el
máximo provecho de un chip de cuatro núcleos.
Algunos títulos se pueden mejorar mediante parches
12. lanzados por sus desarrolladores, pero lo cierto es que
todavía en 2009 un dual core es suficiente para jugar.
Unreal Toumament 3 es otro título cuyo motor acepta
4 núcleos, pero se trata de un juego relativamente
ligero, por lo que con 2 núcleos logra un rendimiento
más que bueno.
LOS CHIPS DE AMD
La línea más económica de procesadores AMD se
llama Semprón y funcionan en motherboards con el
socket AM2 o AM2+ Y DDR2.
Hay chips Sempron de doble núcleo, pero al igual que
el Celeron, se quedan cortos de potencial si piensa
armar una PC para jugar a los últimos juegos durante
un buen tiempo.
"Buenos y baratos" se pueden encontrar procesadores
de doble núcleo Athlon X2, como el modelo 5200+, que
se consigue por alrededor de 75 dólares. y por poco
más se pueden obtener chips como el X2 7750 o el
7850, de 2,7 y 2,8 GHz. Estos chips serían los
equivalentes aproximados a los E5000 y E7000 de
Intel.
AMD es, por el momento, la única compañía que ofrece
procesadores de 3 núcleos: Athlon X3 y Phenom X3.
Constituyen una opción que se ubica en precio y
performance entre los chips de 2 y 4 núcleos.
En la gama más alta de AMD, se encuentran los nuevos
procesadores Phenom II de cuatro núcleos. Hay
variantes de este chip que pueden funcionar tanto con
13. motherboards que usen memoria DDR2 como DDR3 y
socket AM2+ Y AM3 (Actual). Los Phenom II compiten
a la par contra los chips Core 2 Ouad de alta gama
(entre Q9550 y QX9770).
EL PHENOM II ES EL PROCESADOR MÁS RÁPIDO Y
AVANZADO DE AMD. COMPITE CON LOS INTEL CORE 2
QUAD DE ALTA GAMA.
LA IMPORTANCIA DE LA CACHÉ
Los procesadores más caros y poderosos se suelen
distinguir de los más economicos por dos cuestiones
básicas: la frecuencia de funcionamiento (MHz o GHz)
y la cantidad de memoria caché integrada en el chip.
Para darnos una mejor idea de esto, podemos dar un
vistazo, en la tabla de abajo, a la línea de
procesadores Core 2 Duo de Intel y cómo los modelos
de menor rendimiento tienen una menor cantidad de
caché de segundo nivel (l2). El mismo tipo de
segmentación realiza AMD con sus chips Phenom,
Athlan y Sempron.
Si dos procesadores basados en la misma arquitectura
(digamos, dos Core 2 Duo) funcionan a la misma
frecuencia (por ejemplo, 2 GHz) tendrá mejor
desempeño aquel que tenga mayor cantidad de caché
integrada.
Memoria RAM
14. DESDE DDR2 HACIA DDR3La industria de los juegos
siempre ha sido demandante en lo que respecta a
memoria RAM. Más allá del tipo que se utilice (que
está directamente relacionado con el modelo de
procesador elegido). lo que nos importa analizar aquí
es cuánta memoria hace falta, realmente, para jugar
con comodidad.
Podemos decir que 2 GB es un buen punto de partida
para cumplir los requerimientos de los juegos
actuales. Pero para los más exigentes, 4 GB se está
convirtiendo en el estándar, sobre todo si utilizan
Vista.
Los usuarios de Core i7, que tiene triple canal de
memoria, optan por 3 GB o hasta 6 GB de RAM. Este
último caso, debemos reconocer, es algo excesivo.
Uno de los beneficios de tener una buena cantidad de
memoria es que se evitan las lecturas de disco
mientras se juega. Así, se minimizan los saltos o
tirones en la acción. La memoria también ayuda mucho
a mejorar la velocidad de inicio de un juego.
ACTUALMENTE ESTAMOS VIVIENDO UNA LENTA
TRANSICIÓN DE DDR2 HACIA DDR3 TANTO INTEL
COMO AMD ESTÁN APOSTANDO AHORA A LA
TECNOLOGÍA MÁS NUEVA.
EL LIMITE DE LOS 3GB
Si usamos Windows XP o Vista de 32 bits, el sistema
no reconocerá más uqe 3 GB de memoria, aunque le
instalemos 4 GB o más. Esto se debe a una limitación
15. propia de los sistemas de 32 bits. Por eso, si se quiere,
disponer de más memoria, resulta indispensable
utilizar un sistema operativo Windows de 64 bits.
Antes de hacer semejante migración, hay que
asegurarse de conseguir drivers de 64 bits para todos
nuestros componentes y periféricos, porque los de 32
bits no nos servirán. Dispositivos menores, como
adaptadores de red Ethernet o Wi-Fi pueden resultar un
inconveniente en este sentido.
ARMAMOS LA PC DE NUESTROS SUEÑOS Y TAMBIÉN
LA QUE EL BOSILlO NOS PERMITE.
Aquí nos vamos a tomar el atrevimiento de sugerir
distintas configuraciones básicas que consideramos
adecuadas para distintos rangos de precio. Decimos
que estas son computadoras balanceadas y pensadas
para jugar, porque tienen en cuenta un equilibrio entre
los 3 componentes principales (procesador, placa de
video y memoria RAM).
Muchos compradores inexpertos creen que para tener
una computadora poderosa basta con asegurarse un
procesador costoso de 4 núcleos y la mayor cantidad
de memoria que puedan comprar. Pero, como
señalamos al principio de este artículo, en el mundo de
los juegos las placas de video han alcanzado un gran
protagonismo, por lo que hay que tener una visión más
amplia al elegir componentes.
EL GAMER BÁSICO
La configuración que proponemos con este nombre no
es una PC "mínima" para jugar. Es un equipo rápido
que puede ejecutar los juegos más modernos y que lo
16. podrá seguir haciendo, tranquilamente, por un año o
más tiempo. Desde luego, el jugador deberá ser
cuidadoso con la configuración de los sus juegos, que
generalmente tendrá que jugar en mediana calidad
gráfica para no exigir más de lo que la máquina puede
dar.
El procesador es el AMD Athlon X2 7780, un chip de
doble núcleo y 2,8 GHz capaz de entregar la potencia
de cálculo necesaria hoy en día. El precio de este
micro (U$SS 100). lo convierten en nuestro elegido
cuando el dinero importa. Quienes gusten de Intel,
pude ir por el Pentium E5200, que ofrece un
desempeño similar. Si se busca algo más potente, una
gran opción es el Core 2 Duo E7400, que por ronda los
U$S 170 y, si se animan, ofrece un gran potencial de
overclocking.
La solución gráfica elegida puede ser una GeForce
9600 GT o una Radeon HD 4670. Si bien están en un
nivel similar, la 9600 GT es un poco más rápida y un
poco más costosa que la HD 4670. Pero la Radeon
tiene a su favor que no requiere un conector adicional
de energía, por lo que no necesita una fuente potente
para ser utilizada.
Ambas placas de video se desempeñan bien a
resoluciones de 1440 x 900 píxeles, que es lo que
encontramos en los típicos monitores de 19 pulgadas
Widescreen.
UN EQUIPO INTERMEDIO
Para una PC intermedia, que ya llama la atención por
su potencia, elegimos un procesador de cuatro
núcleos. Sin embargo, bien se podría preferir un chip
de doble núcleo rápido, como el Core 2 Duo E8500.
17. Como dijimos antes, los juegos recién ahora están
empezando a aprovechar más de dos núcleos.
Los chips elegidos son el Intel Core 2 Quad Q9400
(U$S 299) y el AMD Phenom 11 X4 940 (U$S 270).
Ambos tienen un desempeño muy similar, así que la
elección dependerá mucho del gusto que tengan por
cada marca y la influencia que tenga la diferencia de
precios. Para acompañar estos chips, hemos
aumentado la cantidad de memoria hasta los 4 GB.
En cuanto a la placa de video, encontramos opciones
muy equilibradas de NVIDIA y ATI: La GeForce GTS 250
y la Radeon HD 4850. Usualmente, estos modelos se
consiguen con 1 GB de memoria y proveen la potencia
necesaria para jugar con detalles altos y aplicar filtros
de antialiasing.
LA PC PODEROSA
Esta no es la PC más poderosa que el dinero pueda
comprar, sino una computadora muy rápida en la que
los componentes se han elegido con generosidad pero
sin caer en gastos extremos.
El procesador es el Intel Core i7 920. Este chip de
cuatro núcleos más elegido de la nueva serie Core i7.
Una característica de la arquitectura Core i7 es que se
utiliza triple canal de memoria. Por eso, acompañamos
el procesadar con un kit de RAM conformado por 3
módulos de 2 GB cada uno.
La placa de video puede ser la Radeon HD 4890 de 1
GB o la GeForce GTX 275 de 896 MB. Ambas se ubican
en un plano similar de precio y performance.
18. Medir el Rendimiento
LOS BENCHMARKS NOS PERMITEN CONOCER EL
VERDADERO DESEMPEÑO DE NUESTRA PC. AQUÍ
RELEVAMOS LAS PRINCIPALES OPCIONES.
Es usual que en revistas especializadas en hardware o
en sitios web encontremos datos que muestran el
desempeño de distintos componentes de la PC. Los
programas que se utilizan para medir y evaluar el
desempeño se llama benchmarks y podemos
ejecutarlos en nuestra PC para comparar su
funcionamiento con el de los productos que muestran
las reviews o con el de las computadoras de nuestros
amigos.
A continuación detallaremos los benchmarks más
adecuados para medir la performance de un equipo.
* 3DMark 06
(http://www.futuremark.com): este es un benchmark
clásico, orientado principalmente a cuantificar el
desempeño de las placas de video. Está subvidivido en
varias pruebas que son escenas en 3D, que se suceden
por un lapso de aproximadamente 10 minutos. Al
finalizar, brinda un puntaje que puede ser comparado
con el obtenido por otras computadoras.
El puntaje 3DMark se subdivide en 3 partes: Shader
Model 2.0, que mide el rendimiento puro de la placa de
video en aplicaciones DirectX 8, Shader Model
3.0/HDR, que evalúa la performance al aplicar efectos
19. más avan- zados, propios de DirectX 9. Por último, está
el puntaje atribuido al procesa dar de la PC (CPU). El
benchmark de CPU sigue siendo, hoy en día, muy
confiable para comparar distintos procesadores,
debido a que soporta correctamente los chips de
múltiples núcleos y los resultados son bastante
independientes de la placa de video que se tenga
instalada. ¿Por qué elegimos la versión 2006 y no el
más nuevo 3DMark Vantage, publicado en 2008
Vantage requiere una PC poderosa, requiere estar
instalado en Windows Vista y, a diferencia de la
versión 06, su utilidad es muy limitada si no se compra
la licencia. Lo bueno de Vantage es que permite
evaluar el desempeño de los juegos en los modos de
alta calidad provistos por DirectX 10 y también incluye
soporte para aceleración de cálculos de física.
Volviendo a 3DMark 06, se trata de una aplicación
shareware, que puede utilizarse gratuitamente para
realizar pruebas a resolución de 1280 x 1024 píxeles.
Para utilizarlo a otras resoluciones y habilitar opciones
como el antialiasing se debe comprar el número de
serie para activarlo.
audacity
Audacity es una aplicación informática
multiplataforma libre, que se puede usar para
grabación y edición de audio, fácil de usar, distribuido
bajo la licencia GPL.
20. creative commons
Creative Commons (CC) es una organización no
gubernamental sin ánimo de lucro que desarrolla
planes para ayudar a reducir las barreras legales de la
creatividad, por medio de nueva legislación y nuevas
tecnologías. Fue fundada por Lawrence Lessig,
profesor dederecho en la Universidad de Stanford y
especialista en ciberderecho, que la presidió hasta
marzo de 2008.
prevención infantil
Según una encuesta de la Sociedad Argentina de
Pediatría, la mitad de los chicos en los hogares
encuestados se conecta a diario a Internet, pero en
casi la mitad de los hogares no hay un adulto
supervisando qué hacen en la Red. Además, el 31% de
los padres encuestados no conoce el apodo que usan
los chicos al conectarse, y el 52% no sabe quiénes son
los contactos que tienen sus hijos en el mensajero
instantáneo. Y mientras que en el 90% de los hogares
encuestados las PC tienen antivirus, el 71% de los
padres no activa o no sabe si están activos los filtros
de control parental, que intentan bloquear el acceso a
páginas con contenidos no aptos para menores. La
encuesta fue presentada el jueves último en la Semana
de la Seguridad Informática, organizada por Microsoft.
"Los padres les advierten a los chicos que no hablen
con gente extraña, que no abran la puerta a un
21. desconocido y controlan lo que los chicos ven por
televisión o leen. Pero cuando se traslada esto a
Internet, muchos padres no se dan cuenta de que
deberían tener el mismo nivel de protección -advierte
el doctor Ariel Melamud, uno de los pediatras que
realizaron la encuesta- y dejan a los chicos solos y
expuestos frente a una PC conectada."
Internet puede parecer un entorno seguro y
controlado, pero la Red arrastra las características
que definen al resto de la sociedad, con cosas
fantásticas y otras que son claramente peligrosas para
los chicos. El mensajero instantáneo, las salas de
chat, el fotolog, el blog, la red social, el foro de
discusión. Parecería que todo lo que allí se pone es
personal y privado, pero si no se toman los recaudos
necesarios, puede ser visible para cualquier interesado
en averiguar más sobre ese chico y acercarse a él.
Y una vez que esos contenidos están on line, su dueño
pierde el control sobre ellos. El problema no está en
que un chico tenga un fotolog, sino en que ese fotolog
puede verlo cualquiera, y (salvo que se configure
correctamente) todos pueden dejar comentarios,
aprovechando el anonimato que proporciona la Red, o
recircular esa foto con extrema sencillez.
"Los padres creen que los chicos están seguros porque
están en casa, pero en realidad están navegando por el
mundo, y es importante que haya un adulto que los
ayude y supervise -explica Teresita Apesteguia,
fundadora del portal infantil Abchicos.com.ar y
directora de la Comisión de Seguridad Infantil de la
22. Cámara Argentina de Comercio Electrónico-. Desde
2005 trabajamos en este tema, y vemos a chicos que
por inocencia proporcionan muchísima información
sobre ellos y su familia a extraños."
Estas exposiciones involuntarias incluyen, explican los
expertos, poner fotos de la puerta de su casa en su
fotolog, relatar hechos específicos (el colegio al que
van, si se van de vacaciones), avisar públicamente de
reuniones con fecha y dirección, ingresar números de
teléfono en cualquier formulario on line, o juntarse con
amigos que conocieron a través del chat y que, en el
peor de los casos, puede ser un adulto haciéndose
pasar por un niño.
"Los chicos no tienen a los padres o docentes como
referentes idóneos en estos temas, y no los consultan.
Muchos chicos, además, prefieren callar cualquier
problema por miedo a que limiten el uso de la PC. A la
vez, no siempre entienden que Internet es un medio
abierto, y que hay cosas que es mejor no comunicarlas
allí -dice Andrea Urbas, de la Asociación Chicos.net, un
portal infantil que también ofrece charlas sobre el
tema para adultos-. Los padres tienen que tener un rol
más activo, una postura abierta, y generar un diálogo
fluido con los chicos para poder ayudarlos."
"Necesitamos adultos con los ojos abiertos. No hace
falta ser experto en tecnología, pero sí compartir
Internet con los chicos. Estamos a favor de la
tecnología, pero debe existir una visión de adulto que
acompañe al hijo, que sepa distinguir lo bueno de lo
malo que hay en la Red", explica Melamud.
23. En esto los expertos tienen el mismo mensaje: muchas
veces los chicos saben más que los grandes en
cuestiones de tecnología, pero los padres están
capacitados para aconsejarlos sobre cómo moverse en
la sociedad, y eso no depende de ser expertos en una
determinada herramienta tecnológica, sino de generar
una comunicación entre padres y chicos que les
permita compartir experiencias, como lo hacen con
otra actividad, como el colegio o una reunión con
amigos.
Tips y herramientas
Los expertos aconsejan que se ubique la PC fuera del
cuarto de los chicos, para facilitar su supervisión, y
alentar las consultas con los padres ante una duda. Si
tienen que llenar un formulario on line, lo ideal es que
lo hagan acompañados de un adulto, para verificar qué
información se les pide.
Además del diálogo y la generación de reglas
consensuadas en el uso de la PC, los padres disponen
de freeware para ayudarlos. Ninguno es totalmente
efectivo: los filtros de contenido no son inteligentes,
sino que dependen de palabras clave o una lista de
sitios no permitidos. Además, pueden generar falsos
positivos, bloqueando sitios que son seguros. Aun así,
pueden ser útiles.
Tanto Google ( www.google.com.ar ) como Yahoo (
ar.search.yahoo.com ) o Microsoft (search.live.com )
permiten configurar el buscador para que no ofrezca
resultados con contenidos para adultos, aunque esto
puede ser modificado por cualquier usuario.
24. la mejor impresora
para imprimir solo blanco y negro el mas bajo costo
operativo se consigue con la HP 4000 (costo por copia
$ 0.05, al 40% covertura grafica) le sigue la HP 5si ( $
0.065 40% covertura grafica) obviamente en tamaño
A4
se utilizaron cartuchos HP alternativos, no reciclados
ni recargados.
Para imprimir a color el costo mas bajo se consigio
con la HP K5400 con un costo irrisorio de $ 0.0012 por
copia A4 con una covertura de 60%, le siguio la Epson
C110 conun costo de $ 0.0015 y por ultimo la Epson
T50 con un costo de $ 0.0017. Esta se utilizaron con
Sistemas continuos de Tinta con tintas de primera
marca.
Y el costo incluye el costo de la impresora mas el
sistema continuo y las tintas que se utilizaron por ca
cantidad de copias que se realizaron, por si no queda
claro las impresora HP K5400 imprimió hasta agotar
los cabezales 118635 copias.
En el formato A3 tanto las Hp 8600 como la Epson
1410 tienen el mismo costo operativo que es de $
0.0032 por copia A4 al 60% de covertura, teniendo mas
prestaciones la Epson por la mayor variedad de
formatos (imprime hasta 1120 mm.) tambien se midio
usando sistemas continuos de tintas y tintas de
primera marca.
25. tengo que aclarar que las impresoras canon si bien
tienen costos similares, pero las problematicas que
tienen al utilizar sistemas continuos de Tintas las deja
afuera de mi analisis. ya que operativamente se
demora mas en reiniciar los sistemas continuos
cambiar los chips, etc
Bueno este es mi humilde aporte y espero que les sirva
al momento de adquirir una impresora
Actualmente estoy testeando la HP 8000 y La Epson
Stylus Pro 3800
pc para trabajar
requisitos mínimos recomendados.
Placa Base
Placa Base, llamada también tarjeta madre. Es el
componente principal del PC.
Dependiendo de qué placa base elijamos podremos
elegir los demás componentes. (Procesador, memoria,
disco duro).
Así que debe ser una compatible con los tipos de
memorias y procesadores actuales.
Dentro de la placa madre/tarjeta madre el componente
principal es el chipset.
26. Chipset
El chipset : Este determina los procesadores que serán
soportados por la placa madre así como el tipo de
memoria RAM que será soportado (DDR2, DDR3, etc.)
Algunas placas madres recomendadas son las de
chipset Intel o chipset AMD.
Procesador
Procesadores: Intel Pentium 4, Intel Centrino, Intel
Xeon o Intel Core Duo™ (o compatible).
Para trabajar con 3D a partir del Intel Core Duo o intel
Core 2 Quad que es mucho más potente.
Memoria RAM
Memoria: 1 GB (DDR) de RAM. Puede ser una memoria
económica, no es necesario que tenga una velocidad
muy alta.
DDR, DDR2, DDR3: son los nuevos tipos de memorias
que salieron al mercado, permiten velocidades más
altas.
Para trabajar con 3D basta con 2 o 3 GB en RAM. Aquí
si necesitan buenas velocidades en RAM puesto que el
3D es más pesado.
La velocidad llamada aquí Megahertz (MHz), es
27. importante para el 3D, ya que es la velocidad a la que
funcionará la memoria. Entre más velocidad más
rápido trabajaran.
Disco Duro
También es necesario tener un buen disco duro ya que
las imágenes son pesadas y requerimos suficiente
espacio para almacenarlas. Disco duro de 160
Gigabytes o mas de capacidad es recomendable. Para
3D de 200 GB en adelante, es importante que sean de
alta velocidad. (SATA / SATA2)
SATA / SATA2: este tipo de discos duros rápidos
permiten una transferencia de datos muy rápida. De
manera que nuestros archivos muy pesados podremos
copiarlos de un lado a otro sin mayor dificultad.
Tarjeta aceleradora de graficos
Tarjeta Grafica/de video: 128 MB de RAM en video.
El video convierte las señales visuales en eléctricas
para mostrarlas en un monitor. Todo sucede tan rápido
que no se nota. La tarjeta grafica tiene la labor de
procesar las imágenes y posteriormente mandarlas al
monitor.
Para 3D una tarjeta de video de 256 de RAM en
adelante.
28. RSS son las siglas de RDF Site Summary or Rich Site
Summary , un formato XML para sindicar o compartir
contenido en la web. Se utiliza para difundir
información actualizada frecuentemente a usuarios
que se han suscrito a la fuente de contenidos. El
formato permite distribuir contenidos sin necesidad de
un navegador, utilizando un software diseñado para
leer estos contenidos RSS (agregador). A pesar de eso,
es posible utilizar el mismo navegador para ver los
contenidos RSS. Las últimas versiones de los
principales navegadores permiten leer los RSS sin
necesidad de software adicional. RSS es parte de la
familia de los formatos XML desarrollado
específicamente para todo tipo de sitios que se
actualicen con frecuencia y por medio del cual se
puede compartir la información y usarla en otros sitios
web o programas
wiki (o una wiki) (Plantilla:IPAc-en Plantilla:Respell)
(del hawaiano wiki, «hacer las cosas de forma sencilla
y rápida») es un sitio web cuyas páginas pueden ser
editadas por múltiples voluntarios a través del
navegador web. Los usuarios pueden crear, modificar o
borrar un mismo texto que comparten. Los textos o
«páginas wiki» tienen títulos únicos. Si se escribe el
título de una «página wiki» en algún lugar del wiki
entre dobles corchetes (...), esta palabra se convierte
en un «enlace web» a la página wik
29. audioblog es una variante de weblog o bitácora
que consiste en una galería de ficheros de audios en
diferentes formatos, publicados regularmente por uno
o más autores. El autor puede autorizar a otros
usuarios a añadir comentarios u otros ficheros de
audio dentro de la misma galería.
La Web 1.0 (1991-2003) es la forma más básica
que existe, con navegadores de sólo texto bastante
rápidos como. Después surgió el HTML que hizo las
páginas web más agradables a la vista, así como los
primeros navegadores visuales tales como IE,
Netscape, etc.
La Web 1.0 es de sólo lectura. El usuario no puede
interactuar con el contenido de la página (nada de
comentarios, respuestas, citas, etc), estando
totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y
cualquier página web diseñada con un estilo anterior
del fenómeno de la Web 2.0. Es en general un término
que ha sido creado para describir la Web antes del
impacto de la fiebre punto com en el 2001, que es visto
por muchos como el momento en que el internet dio un
giro.[1]
Es la forma más fácil en el sentido del término Web 1.0
cuando es usada en relación a término Web 2.0, para
comparar los dos y mostrar ejemplos de cada uno.
30. Web 2.0 (2004–presente) está comúnmente
asociado con un fenómeno social, basado en la
interacción que se logra a partir de diferentes
aplicaciones web, que facilitan el compartir
información, la interoperabilidad, el diseño centrado en
el usuario o D.C.U. y la colaboración en la World Wide
Web. Ejemplos de la Web 2.0 son las comunidades
web, los servicios web, las aplicaciones Web, los
servicios de red social, los servicios de alojamiento de
videos, las wikis, blogs, mashups y folcsonomías. Un
sitio Web 2.0 permite a sus usuarios interactuar con
otros usuarios o cambiar contenido del sitio web, en
contraste a sitios web no-interactivos donde los
usuarios se limitan a la visualización pasiva de
información que se les proporciona.
Web 3.0 es un neologismo que se utiliza para
describir la evolución del uso y la interacción en la red
a través de diferentes caminos. Ello incluye, la
transformación de la red en una base de datos, un
movimiento hacia hacer los contenidos accesibles por
múltiples aplicaciones non-browser, el empuje de las
tecnologías de inteligencia artificial, la web
semántica, la Web Geoespacial, o la Web 3D.
Frecuentemente es utilizado por el mercado para
promocionar las mejoras respecto a la Web 2.0. El
término Web 3.0 apareció por primera vez en 2006 en
un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y
asociado a tecnologías como AJAX. Actualmente
31. existe un debate considerable en torno a lo que
significa Web 3.0, y cual es la definición acertada.[1
Los diez ultimo gran inventos en el
2010
10. Pantallas flexibles
Probablemente no las veremos en el mercado hasta el
2010, la tecnología ya esta aquí
Con ayuda del ejercito de los Estados Unidos, el
Centro de Pantallas Flexibles de la Universidad del
Estado de Arizona desarrollo durante este año un
prototipo para soldados que esperan sea funcional en
unos 3 años, luego de pruebas y más estudios.
También empresas fuertes como HP y Samsung han
presentado prototipos de cómo podría funcionar y
mejorar la tecnología actual. Periodicos enrollados en
un tubo pueden ser cosa de todos los días en un futuro
no muy lejano…
9. Chips Comestibles
Este avance en el campo de la medicina es muy
prometedor, especialmente para pacientes o casos
32. donde el medico tratante debe estar muy al tanto
sobre el avance de la enfermedad del paciente. Se han
logrado crear chips comestibles que toman datos en
tiempo real sobre el paciente: qué come, a qué hora,
en que posición, ritmo cardíaco, etc. Luego envían
estos datos por medio de un celular cercano a una
base de datos central que finalmente el medico puede
consultar para conocer el estado del paciente.
8. Speedo LZR
Michael Phelps… No hay necesidad de dar mayor
explicación. Utiliza nuevos materiales junto a sciencia
de la NASA para mejorar las velocidades de
competidores reduciendo la fricción al momento de
nadar, muy impresionante.
7. Memoria Flash
Pero, esa ya esta en el mercado desde hace mucho
tiempo, ¿No? Cierto, lo que sucede es que este año la
vimos ingresar, de manera triunfante, en el mundo del
disco duro. A través de discos de estado sólido (SSD –
Solid State Drives). La gran desventaja es que por el
momento estos discos son demasiado caros pero
seguro dentro de algunos años veremos los precios
bajar significativamente y estos discos estarán al
alcance de nuestro bolsillo.
Las grandes ventajas son en rápidez y confiabilidad de
los datos guardados en ellos. Recordemos que el disco
duro juega un papel importante en nuestra PC.
6. GPS
Aunque la tecnología es muy antigua (70′s)
recientemente ha aparecido por todas partes gracias a
33. dispositivos como el iPhone 3G y el nuevo G1 de T-
mobile, haciendo que tome un nuevo sentido, ya que
anteriormente era reservado para usos militares.
5. El Memristor
No sucede muy seguido, pero este avance tecnologico
puede cambiar la forma en la que usamos nuestras
computadoras. Casi 37 años después de haber sido
descrito en una serie de ecuaciones matematicas,
investigadores de los laboratorios de HP han probado
que el cuarto elemento en circuitos electronicos es
real. El “memristor” o transistor de memoria, ahora se
une a otros tres elementos: el capacitor, la resistencia
y el inductor.
Este descubrimiento podría hacer posible que las
computadoras “recuerden” el estado de la memoria
aún despues de haber sido apagadas, cosa no posible
con tecnología actual. Esto puede hacer que tengamos
computadoras más eficientes en el futuro,
reemplazando la memoria “DRAM” como la conocemos
probablemente.
4. Cámaras SLR capaces de tomar video
Es cierto, solo pueden tomar unos segundos, pero
anteriormente esta “función” estaba relegada a las
cámaras más economicas debido a la forma que
funcionan los lentes SLR, esperamos ver más cámaras
(actualmente solo hay dos: Nikon D90 y Canon 5D Mark
II) en el futuro no muy lejano haciendo uso de esta
tecnología con mayor capacidad de almacenamiento
de video.
3. USB 3.0
34. Abrochense los cinturones. USB 3.0 será 10 veces más
rápido que la especificación actual, 2.0. Además y por
si fuera poco, ahora proveerá 900 miliamperios de
energía en lugar de los 100 actuales, haciendo que
dispositivos puedan hacer mejor uso del cable USB
para cargarse fácilmente.
Los detalles fueron afinados finalmente este año y
probablemente veremos dispositivos nuevos durante el
2009 haciendo uso de esta tecnología para transferir
nuestros videos, música y archivos más rápido de lo
que canta un gallo.
2. Android
Android, la nueva plataforma de Google que promete
ser abierta, será una gran competencia para Apple y su
iPhone, así como Microsoft con Windows Mobile. Esto
es bueno, ya que veremos más dispositivos en el
mercado que harán uso de estas tecnologías y por
supuesto dichas tecnologías también tendrán que
estar en constante actualización para poder competir
unas con otras. Se espera una batalla reñida…
El primer dispositivo en usar el sistema operativo para
mobiles, Android, ha sido el G1 de T-Mobile, creado por
HTC. De cualquier manera veremos muchos más
dispositivos usando este sistema operativo durante el
2009.
1. App Store de Apple
Hasta este año, aplicaciones para mobiles erán
dificiles de hacerse llegar al consumidor, pero gracias
a la nueva App Store de Apple, esto es cosa del pasado
(noten que únicamente aplica para el iPhone) y
35. ademas ha creado un frenesí de otros creadores de
Smartphones (RIM con su blackberry, Microsoft con
Mobile y Google con Android) por crear sus propios
portales de distribución de software.
notebook y netbook
Por lo general funcionan empleando una batería o
un adaptador que permite tanto cargar la batería
como dar suministro de energía.
Suelen poseer una pequeña batería que permite
mantener el reloj y otros datos en caso de falta de
energía.
En general, a igual precio, las notebooks suelen
tener menos potencia que las computadoras de
escritorio, incluso menor capacidad en los discos
duros, menos poder de video y audio, y menor
potencia en los microprocesadores. De todas
maneras, suelen consumir menos energía y son
más silenciosas.
Suelen contar con una pantalla LCD y un
touchpad.
En general, cuentan con PC Card (antiguamente
PCMCIA) o ExpressCard para tarjetas de
expansión.
Existe un tipo de notebooks llamadas netbooks,
que son más pequeñas y más livianas, M 570E
No hay todavía un factor de forma industrial
estándar para las notebook, es decir, cada
fabricante tiene su propio estilo de diseño y
construcción. Esto incrementa los precios de los
36. componentes en caso de que haya que
reemplazarlos o repararlos, y hace que resulten
más difíciles de conseguir. Incluso a menudo
existen incompatibilidades entre componentes de
notebooks de un mismo fabricante.
[editar]Netbook
Artículo principal: Netbook
Son una nueva clase de portátiles que eliminan la
unidad de CD, y reducen la potencia de otros
componentes como la tarjeta gráfica, con el fin de
disminuir el tamaño físico de las máquinas (y en
ocasiones el costo), capaces de entrar en el bolsillo
de un pantalón, como en el caso de los VAIO serie P.
Su capacidad de procesamiento es notablemente
menor que las portátiles normales, por eso necesitan
sistemas operativos diseñados específicamente,
además del uso de almacenamiento remoto.
Apple
Es una empresa multinacional estadounidense que
diseña y produce equipos electrónicos y software.2
Entre los productos de hardware más conocidos de la
empresa se cuenta con equipos Macintosh, el iPod y el
iPhone. Entre el software de Apple se encuentran el
sistema operativo Mac OS X, el sistema operativo iOS,
el explorador de contenido multimedia iTunes, la suite
iLife (software de creatividad y multimedia), la suite
iWork(software de productividad), Final Cut Studio (una
37. suite de edición de vídeo profesional), Logic Studio
(software para edición de audio en pistas de audio),
Aperture (software para editar imágenes RAW), y el
navegador web Safari.
Creadores
Steve Jobs y Steve Wozniak se conocieron en 1971,
cuando un amigo mutuo, Bill Fernandez, presentó a
Wozniak, quien tenía 21 años de edad a Jobs, entonces
de 16 años. Steve Wozniak, a quien le gustaba que le
llamaran Woz, siempre había sentido una gran
atracción por la electrónica en general, diseñando
desde que era pequeño circuitos en papel para
después tratar de optimizarlos al máximo. Dada su
afición por la electrónica, Woz "apadrinaba" a otros
chicos a los que les gustase el tema, como Bill
Fernandez o el mismoSteve Jobs.
Pronto Wozniak empezó a dedicar cada vez más y más
tiempo en construir en papel su propia computadora.
Tras intentos relativamente infructuosos, finalmente
sus esfuerzos dieron como resultado lo que sería la
Apple I. Tras la presentación de su computadora en el
club informático Homebrew Computer Club y asombrar
a sus participantes, Jobs rápidamente vio la
oportunidad de negocio, por lo que empezó a
promocionar la computadora entre otros aficionados
de la informática del Homebrew Computer Club y otras
tiendas de electrónica digital.
Al poco tiempo empezaron a recibir pequeños
encargos de computadoras que construían ellos
mismos con máquinas hechas a mano, llegando a
38. vender unos 200 ejemplares de su máquina Apple I. Se
les unieron más amigos, pero las prestaciones del
Apple I eran limitadas, así que empezaron a buscar
financiación. Finalmente Jobs conoció a Mike
Markkula, que accedió a invertir, creándose así el 1 de
abril de 1976, Apple Computer.
En total, se produjeron y se vendieron alrededor de
doscientas unidades a 500 dólares la unidad, pero el
éxito fue tal que no pudieron dar abasto con tanta
demanda. Las características del Apple I eran
limitadas por el poco dinero del que disponían Jobs y
Wozniak. De hecho, para construir el prototipo, Jobs
tuvo que vender su camioneta y Woz su calculadora
programable HP.
Sede
Cupertino, California, Estados Unidos
La empresa opera más de 300 tiendas propias en
nueve países, miles de distribuidores (destacándose
los distribuidores premium o Apple Premium Resellers)
y una tienda en línea (disponible en varios países)
donde se venden sus productos y se presta asesoría
técnica.
39. Google
Google Inc. es la empresa propietaria de la marca
Google, cuyo principal producto es el motor de
búsqueda del mismo nombre. Dicho motor es resultado
de la tesis doctoral de Larry Page y Sergey Brin (dos
estudiantes de doctorado en Ciencias de la
Computación de la Universidad de Stanford) para
mejorar las búsquedas en Internet. La coordinación y
asesoramiento se debieron al mexicano Héctor García
Molina, director por entonces del Laboratorio de
Sistemas Computacionales de la misma Universidad de
Stanford.3 Partiendo del proyecto concluido, Page y
Brin fundan Google Inc. el 4 de septiembre de 1998.
Este motor de búsqueda superó al otro más popular de
la época, AltaVista, que había sido creado en 1995.
Aunque su principal producto es el buscador, la
empresa ofrece también entre otros servicios: un
comparador de precios llamado Google Product Search
(antes conocido como "Froogle"), un motor de
búsqueda para material almacenado en discos locales
(Google Desktop Search), un servicio de correo
electrónico llamado Gmail, su mapamundi en 3D
Google Earth o un servicio de mensajería instantánea
basado enXMPP llamado Google Talk.
Actualmente Google está trabajando en nuevos
proyectos como la PC de 100 dólares,4 un nuevo
sistema operativo,5 Google Docs & Spreadsheets,
colaboración6y promoción de aplicaciones de software
libre como Firefox,7 instalación de varias redes
inalámbricas gratuitas,8 desarrollo de un sistema de
40. protocolo abierto de comunicación por voz9 entre
otros. Además se especula que estaría trabajando en
el desarrollo de un "Google Office"10 y una red global
de fibra óptica.11
Sede
Mountain View, CA, Estados Unidos
Microsoft
Microsoft Corporation (NASDAQ: MSFT) es una
empresa multinacional de origen estadounidense,
fundada en 1975 por Bill Gates y Paul Allen. Dedicada
al sector de lainformática, con sede en Redmond,
Washington, Estados Unidos. Microsoft desarrolla,
fabrica, licencia y produce software y equipos
electrónicos. Siendo sus productos más usados el
sistema operativo Microsoft Windows y la suite
Microsoft Office, los cuales tienen una importante
posición entre los ordenadores personales. Con una
cuota de mercado cercana al 90% para Office en 2003
y para Windows en el 2006. Siguiendo la estrategia
deBill Gates de "tener una estación de trabajo que
funcione con nuestro software en cada escritorio y en
cada hogar".4 5 6 7 8 9 10 11 12
Sede
Redmond, Washington, Estados Unidos
Creadores
41. Bill Gates
Fundador
Paul Allen
Fundador
Steve Ballmer
Ejecutivo principal
software libre
El software libre (en inglés free software, esta
denominación también se confunde a veces con gratis
por el doble sentido delinglés free en castellano) es la
denominación del software que respeta la libertad de
los usuarios sobre su producto adquirido y, por tanto,
una vez obtenido puede ser usado, copiado, estudiado,
cambiado y redistribuido libremente. Según la Free
Software Foundation, el software libre se refiere a la
libertad de los usuarios para ejecutar, copiar,
distribuir, estudiar, modificar el software y distribuirlo
modificado.
El software libre suele estar disponible gratuitamente,
o al precio de costo de la distribución a través de otros
medios; sin embargo no es obligatorio que sea así, por
lo tanto no hay que asociar software libre a "software
gratuito" (denominado usualmentefreeware), ya que,
conservando su carácter de libre, puede ser distribuido
comercialmente ("software comercial").
Análogamente, el "software gratis" o "gratuito" incluye
en ocasiones el código fuente; no obstante, este tipo
de software no es libre en el mismo sentido que el
software libre, a menos que se garanticen los
42. derechos de modificación y redistribución de dichas
versiones modificadas del programa.
Tampoco debe confundirse software libre con
"software de dominio público". Éste último es aquel
software que no requiere de licencia, pues sus
derechos de explotación son para toda la humanidad,
porque pertenece a todos por igual. Cualquiera puede
hacer uso de él, siempre con fines legales y
consignando su autoría original. Este software sería
aquel cuyo autor lo dona a la humanidad o cuyos
derechos de autorhan expirado, tras un plazo contado
desde la muerte de este, habitualmente 70 años. Si un
autor condiciona su uso bajo una licencia, por muy
débil que sea, ya no es del dominio público.
proteccion infantil
Hoy, día 10 de Febrero, es el día de la seguridad en
Internet y sobre todas las cosas importantes que
proteger, en la cúspide de la pirámide, se encuentran
los niños. Internet ha revolucionado el mundo, el
mundo de todos. Los conocimientos que nos llegan por
medio de la red son casi ilimitados, así como la
comodidad que nos ofrece al permitirnos realizar
compras, contactar con estamentos oficiales, etc., han
hecho que la vida sea diferente. Pero como si Internet
fuera un enorme cubo los hay que lo usan para volcar
su basura y esta nos salpica a todos, es en este punto
donde debemos proteger a los niños: Hoy por hoy
existen múltiples programas de protección parental
que limitan la navegación por Internet, impidiendo que
se visiten ciertas páginas y que los más pequeños
43. puedan tener acceso a contenidos peligrosos. En
PortalProgramas podéis encontrar muchos programas
de este tipo, de entre ellos os mostramos algunos: 1.-
Amigo Control Parental
Este programa tiene como objetivo fundamental el
proteger a los más pequeños de la casa a la hora de
emplear el ordenador, así como ayudar a los padres y
educadores en la educación de los mismos. Se trata de
un programa que aplica técnicas parentales
mejoradas, para la protección de nuestros hijos de
factores externos, limitando ciertos contenidos de
internet poco recomendables, limitando actividades
siempre de forma personalizable, etc. Descargar
Descargar Amigo Control Parental Desarollador:
Aconfi, S.L. 2.- Parental
Esta aplicación no está diseñada para espiar los
movimientos del niño, sino para educarlo en el ámbito
del autocontrol y la confianza con los padres. De esta
forma, se le asegura su privacidad, pero se le obliga a
seguir unas normas para el tiempo de uso del
ordenador. Parentalse encarga automáticamente de
hacer todo esto indicando el tiempo restante de uso de
la máquina y apagándola cuando el tiempo se acaba.
Descargar Descargar Parental Desarollador: Parental
3.-Control Kids
Control Kids es un filtro parental que restringe la
navegación en Internet a sitios para adultos o
pornográficos. El programa prohíbe el acceso a sitios
considerados peligrosos para los niños y adolescentes
gracias a diferentes filtros. Esta aplicación esta
44. desarrollada para añadirse a la seguridad que tengas
instalada en tu ordenador para prevenir que tus hijos
se vean afectados por contenidos realmente
peligrosos que pueden alterar su comportamiento
natural. DescargarDescargar Control Kids
Desarollador: Esther Susano Proxym 4.- nysBlock
Hogar [caption id="attachment_3219"
align="aligncenter" width="453" caption="Control por
medio de contraseña"]
[/caption] nysBlock Hogar es un software de bloqueo
de programas inseguros y peligrosos. El programa esta
instalado en un servidor y en cada uno de los clientes
asociados a la red local. nysBlock posee cuatro listas
negras de bloqueo: - Sistema: Esta lista es para
bloquear funciones de Windows, tales como:
Firewall de Windows
Panel de control
Utilidad de configuración del sistema (msconfig)
Editor de Registro (regedit)
Administrador de tareas de Windows
- Chat: Lista con bloqueos para programas de Chat,
algunos de los más conocidos son:
MSN Messenger
Digsby
Trillian
ICQ
Yahoo! Messenger
45. Y páginas Web que buscan el mismo fin:
meebo
webmessenger
igoogle
latinchat
- P2P: Lista con programas para bajar música,
películas, programas, y otros:
Ares
Kazaa
EMule
UTorrent
Chilewarez
- Contenido Ocioso: Lista con expresiones que hacen
perder el tiempo del usuario en horario de trabajo,
entre ellos encontramos:
Fotolog
Facebook
Radio online
Juegos
Pornografía
YouTube
Todas las listas son configurables para grupos de
usuarios o solamente un usuario y van aumentando al
incorporarse nuevos conceptos. Descargar Descargar
nysBlock HogarDesarollador: technys 5.- Aobo
46. BlockerAobo Blocker bloquea sitios web no deseados y
filtrar sitios web porno. Posee un eficaz y eficiente
algoritmo de filtrado para bloquear todos los sitios
pornograficos. Entre sus principales características
podemos destacar:
Bloque de sitios web no deseados por URL o
palabras clave
Bloque sitios web porno automáticamente antes
de que se carguen en los navegadores.
Bloqueo de visitando sitios web visitados no
deseados con proxies web
Trabaja con todos los navegadores web populares
Se ejecutar en modo indetectable
Protegido por contraseña
Cómo montar una red Wi-Fi en casa
por José Julio Ruiz | 10-Agst-2004
Comenzamos una serie de tutoriales sobre Bluetooth y
47. Wi-Fi (Wireless Fidelity) es i-Fi. En esta prim.
Introducción una de las tecnologíera entrega veremos
cómo montar una red 802.11 en casa y aclararemos
algunos conceptos.1as de comunicación inalámbrica
(sin cables - wireless) más extendidas. También se
conoce como WLAN o como IEEE 802.11Los
subestándares de Wi-Fi que actualmente más se están
explotando en el ámbito comercial son:
- 802.11b:
· Pionero en 1999 y actualmente el más extendido.
· Opera en la banda de los 2.4 GHz.
· Alcanza una velocidad máxima de 11 Mb/sg.
- 802.11g:
· Estrenado en 2003
· Opera en la banda de los 2.4 GHz.
· Alcanza una velocidad máxima de 54 Mb/sg.
Cuando compremos nuestro hardware Wi-Fi debemos
fijarnos para qué subestándar fue diseñado, porque de
nada nos sirve tener un Access Point .11b (11 Mb/sg) y
un accesorio Wi-Fi .11g (54 Mb/sg) ya que de todas
maneras nos estaremos conectando a 11 Mb/sg.
2. Conceptos básicos:
Repasemos la terminología que usaremos en este y
otros futuros tutoriales:
48. Access Point: (Punto de Acceso o AP)Es el dispositivo
que hace de puente entre la red cableada y la red
inalámbrica. Podemos pensar que es, de alguna
manera, la antena a la que nos conectaremos.
Accesorio Wi-Fi:
Es el accesorio adicional que usaremos para incoporar
el estándar 802.11 a nuestro equipo (PDA, ordenador
portátil o de sobremesa), en caso de no tener Wi-Fi
integrado.
Estos accesorios pueden encontrarse en formato de
tarjetas PCMCIA (para portátil), PCI y USB (para
ordenador de sobremesa) y esperamos que muy pronto
en formato SD (Secure Digital) para nuestros PDAs
Palm OS.
Dirección IP: (IP Address)
Una dirección IP es una serie de números que
identifica a nuestro equipo dentro de una red.
Distinguimos entre IP pública (ej. 80.20.140.56),
cuando es la dirección que nos identifica en Internet
(por ejemplo la IP de tu router ADSL en Internet) e IP
privada (ej. 192.168.0.2 ), que es la dirección que
identifica a un equipo dentro de una red local (LAN).
49. Si, por ejemplo, pensamos en una red local con un
router ADSL, los PCs o equipos conectados a la red
tendrán sólo IP privada, mientras que el router tendrá
una IP pública (su identificación en Internet) y una IP
privada (su identificación en la red local).
Máscara de subred: (Subnet address)
Cifra de 32 bits que especifica los bits de una
dirección IP que corresponde a una red y a una subred.
Normalmente será del tipo 255.255.255.0
Puerta de enlace: (Gateway)
Es la dirección IP privada de nuestro router.
Servidores DNS: (DNS server)
Las páginas web también tienen su dirección IP
pública y es a través de ésta dirección como en
realidad nos conectamos a ellas. Pero claro, es más
sencillo memorizar o escribir el nombre del dominio
(www.google.es) que su dirección IP (216.239.59.104).
Para no memorizar la retahíla de números tenemos los
servidores DNS. Un servidor DNS es un servidor en
donde están almacenadas las correlaciones entre
nombres de dominio y direcciones IP.
Cada vez que cargamos una página web, nuestro
equipo (PDA, portátil u ordenador de sobremesa) envía
una petición al servidor DNS para saber la dirección IP
de la página que queremos cargar, y es entonces
cuando hace la conexión.
50. Probablemente estaréis familiarizados con eso de
"servidor DNS primario" y "servidor DNS secundario".
El primario es el "principal" y el secundario es el de
emergencia que usará nuestro ordenador en caso de
que el primario no funcione.
WEP: (Wired Equivalent Privacy)
Es el tipo de encriptación que soporta la tecnología Wi-
Fi. Su codificación puede ir de 64 bits hasta 128 bits.
WEP está deshabilitado por defecto.
SSID: (Service Set Identification)
Nombre con el que se identifica a una red Wi-Fi. Este
identificador viene establecido de fábrica pero puede
modificarse a través del panel de administración del
Punto de Acceso.
DHCP:
Tecnología utilizada en redes que permite que los
equipos que se conecten a una red (con DHCP
activado) auto-configuren los datos dirección IP,
máscara de subred, puerta de enlace y servidores DNS,
de forma que no haya que introducir estos datos
manualmente.
Por defecto la mayoría de los routers ADSL y los
Puntos de Acceso tienen DHCP activado.
Dirección MAC: (MAC address - Media Access Control
address)
Es el código único de identificación que tienen todas
las tarjetas de red. Nuestro accesorio Wi-Fi o nuestro
PDA con Wi-Fi integrado, al ser un dispositivo de red,
también tendrá una dirección MAC única.
51. Las direcciones MAC son únicas (ningún dispositivo de
red tiene dos direcciones MAC iguales) y permanentes
(ya que vienen preestablecidas de fábrica y no pueden
modificarse).
Infraestructura:
Modo de conexión en una red wireless que define que
nuestro equipo (PDA, portátil u ordenador de
sobremesa) se conectará a un Punto de Acceso. El
modo de conexión deberá de especificarse en la
configuración de nuestro equipo o del accesorio Wi-Fi.
Por defecto viene activado este modo.
Ad-Hoc: (Punto a Punto)
Modo de conexión en una red wireless que define que
nuestro equipo (PDA, ordenador portátil o de
sobremesa) se conectará directamente a otro equipo,
en vez de hacerlo a un Punto de Acceso.
Ad-Hoc es una forma barata de tener conexión a
Internet en un segundo equipo (por ejemplo un PDA)
sin necesidad de comprar un Punto de Acceso. Para
este uso la configuración se dificulta ya que tenemos
que configurar en el ordenador que tiene la conexión a
Internet un programa enrutador o una conexión
compartida.
3. ¿Qué necesito para montar una red Wi-Fi en casa?
La mejor configuración es partir de una conexión ADSL
con router, aunque también podremos montar una red
Wi-Fi en casa a partir de otras configuraciones (cable,
etc.).
52. Si ya contamos con esto, necesitaremos además:
Punto de Acceso Wi-Fi.
Si nuestro ordenador o portatil no incluye WiFi,
necesitaremos un accesorio que nos de este tipo
de conectividad.
53. 4. Configuración del Access Point
La forma de ajustar los siguientes parámetros
dependerá de los fabricantes, así que hablaré de ellos
genéricamente.
1. Sacar el AP de su caja y conectarlo a la red
eléctrica con el alimentador incluido en la caja.
2. Conectar el AP al router ADSL con el cable cable de
red del AP (también incluido en la caja).
3A. Si tenéis DHCP activado en el router ADSL en
principio no habrá que configurar ningún parámetro
adicional en el AP.
5. Configuración de nuestro equipo
La configuración de un PDA Palm OS lo veremos en
detalle en un próximo tutorial. Para conectar un
ordenador portátil o de sobremesa, consulta el manual
de usuario para información detallada de la
configuración.
Lo más normal es que tengáis una herramienta de
gestión de la conexión Wi-Fi, incluida con el accesorio,
donde podáis configurar los parámetros necesarios,
así como ver la potencia de la señal.
Si tenéis DHCP activado sólo tendréis que abrir este
programa, escanear las redes disponibles, seleccionar
la vuestra y conectaros a ella. La configuración se
realizará automáticamente.
54. Si tenéis DHCP desactivado tendréis que establecer
manualmente la dirección IP de vuestro equipo, la
puerta de enlace, la máscara de subred y los
servidores DNSs. Después de hacer esto abrid el
programa de configuración de Wi-Fi de vuestro equipo
o del accesorio que hayáis instalado y seguíd los
pasos del párrafo anterior.
6. Consideraciones y consejos sobre alcance y
cobertura
El alcance de la señal de nuestra red Wi-Fi dependerá
de:
La potencia del Punto de Acceso.
La potencia del accesorio o dispositivo Wi-Fi por
el que nos conectamos.
Los obstáculos que la señal tenga que atravesar
(muros o metal).
Cuanto más lejos (linealmente) quieras llegar, más
alto deberás colocar el Punto de Acceso. Muchos
de los actuales APs vienen preparados para
poderlos colgar en la pared.
55. Si quieres llegar lejos, evita también interferencias
como microondas o teléfonos inalámbricos.
Si la señal te llega debilitada, utiliza un amplificador
de señal o si es posible, monta una nueva antena de
más potencia al AP (los Puntos de Acceso de gama
baja NO lo permiten) o una antena exterior al
accesorio (normalmente sólo para formatos PCMCIA o
PCI).
En próximos tutoriales veremos cómo configurar
nuestro PDA para acceder a una red Wi-Fi, así como el
tipo de cosas que podemos hacer con nuestro
ordenador de bolsillo wireless.
tipos de pc
Ahora el uso de la computadora es muy común, tanto
en empresas, negocios y algunos hogares.
Pero cuando personas relacionadas con las antes
mencionadas interactúan con la computadora la
mayoría de las veces solo piensan que todas las
computadoras son del mismo tipo.
Además que quieren tener mas información acerca de
las computadoras y no saben ?los tipos de
computadoras que existen? y esto es una limitante
para que las personas, que interactúan con ellas,
sepan acerca de la computación
Las computadoras se clasifican en súper
computadoras, macro computadoras o mainframes,
56. mini computadoras y micro computadoras o PC.
Las clasificaciones contienen un cierto tipo de
computadoras con características especificas.
Supercomputadoras
Una supercomputadora es le tipo de computadora más
potente y más rápido que existe en un momento dado.
Estas maquinas están diseñadas para procesar
enormes cantidades de información en poco tiempo y
son dedicadas a una tarea especifica.
Un ejemplo de súper computadora es una computadora
que se utiliza para el manejo de un grupo de maquinas
ensambladoras de productos metálicos.
Macrocomputadoras o mainframes
Las macro computadoras son también conocidas como
mainframes. Los mainframes son grandes, rápidos y
caros sistemas que son capaces de controlar cientos
de usuarios simultáneamente, así como cientos de
dispositivos de entrada y salida.
De alguna las mainframes son más poderosos que las
súper computadoras porque soportan mas programas
simultáneamente. Pero las súper computadoras
pueden ejecutar un solo programa más rápido que
mainframe.
57. En el pasado las mainframes ocupaban cuartos
completos hasta pisos enteros de algún edificio, hoy
en día, un mainframe es parecido a una hilera de
archiveros en algún cuarto con piso falso, esto para
ocultar los cientos de cables de los periféricos, y su
temperatura tiene que estar controlada.
Mini computadoras
En 1960 surgió la mini computadora, una versión más
pequeña de la macrocomputadora. Al ser orientada a
tareas especificas, no necesitaba de todos los
periféricos que necesita un mainframe, y esto ayudo a
reducir el precio y costo de mantenimiento.
Las mini computadoras, en tamaño y poder de
procesamiento, se encuentran entre los mainframes y
las estaciones de trabajo. En general, una mini
computadora, es un sistema multiproceso (varios
procesos) capaz de soportar de 10 hasta 200 usuarios
simultáneamente. Actualmente se usan para
almacenar grandes bases de datos, y otras
aplicaciones.
Micro computadoras o PC
Las microcomputadoras o computadoras personales
58. (PC) tuvieron su origen con la creación de los
microprocesadores. Un microprocesador es una
computadora en un chip, o sea un circuito integrado
independiente. Las PC son computadoras para uso
personal y relativamente son baratas y actualmente se
encuentran en las oficinas, escuelas y hogares.
importancia del atube catcher
Es bastante bueno cumpliendo su cometido: descargar
y convertir videos de Webs. Solo le pongo la pega de
ser algo lioso para alguien que no quiere complicarse
demasiado. Para las occiones avanzadas hay que
saber algo de ingles y cuidado con que marcais en la
instalación.
Lo mejor:
Hace bien su trabajo.
Instalación rapida y simple.
Libertad de elegir entre bastantes formatos.
Lo peor:
En la instalación te intentan colar mas programas de lo
debido.
Si no tienes demasiadas nociones sobre formatos
puede llegar a ser complicado.
En opciones avanzadas hay que saber algo de ingles.
smartphone
Smartphone (teléfono inteligente en español) es un
término comercial para denominar a un teléfono móvil
con características similares a las de un ordenador
personal. Casi todos los teléfonos inteligentes son
móviles que soportan completamente un cliente de
correo electrónico con la funcionalidad completa de un
organizador personal. Una característica importante de
59. casi todos los teléfonos inteligentes es que permiten la
instalación de programas para incrementar el
procesamiento de datos y la conectividad. Estas
aplicaciones pueden ser desarrolladas por el
fabricante del dispositivo, por el operador o por un
tercero. El término "Inteligente" hace referencia a
cualquier interfaz, como un teclado QWERTY en
miniatura, una pantalla táctil, o simplemente el
sistema operativo móvil que posee, diferenciando su
uso mediante una exclusiva disposición de los menúes,
teclas, atajos, etc.
El completo soporte al correo electrónico parece ser
una característica indispensable encontrada en todos
los modelos existentes y anunciados en 2007, 2008,
2009 y 2010. Casi todos los teléfonos inteligentes
también permiten al usuario instalar programas
adicionales, normalmente inclusive desde terceros,
pero algunos vendedores gustan de tildar a sus
teléfonos como inteligentes aun cuando no tienen esa
característica. Algunos ejemplos de teléfonos
denominados inteligentes son: Serie MOTO Q de
Motorola, Nokia series E y series N, BlackBerry, iPhone
y Nexus One.
Entre otras características comunes está la función
multitarea, el acceso a Internet via WiFi, a los
programas de agenda, a una cámara digital integrada,
administración de contactos, acelerometros y algunos
programas de navegación así como ocasionalmente la
habilidad de leer documentos de negocios en variedad
de formatos como PDF y Microsoft Office.
60. Inmuniza tu PC contra los virus
mas conocidos de USB
Este post es para todos aquellos que quieran intentar
algo diferente para defenderse de los famosos virus
memorias USB. Esta técnica es una recopilación de
varias en internet, modificadas y mejoradas, con las
siguientes ventajas:
- NO necesitas antivirus ni programas (más memoria
RAM para tu windows).
- Puedes usarla al tiempo que tu antivirus (yo no tengo
antivirus, pero igual).
- Gratis, legal (sin piratear nada), puedes aplicarlo
donde quieras sin internet.
PASOS:
A) Deshabilitar el autorun.inf
Esto evitará que corran los virus de memorias USB.
Cuando insertes una memoria USB con virus, esta no
va a poder abrirse, excepto si haces click derecho en
laUnidad>Explorar.
1. Dirígete a Inicio, y haz click en Ejecutar.
2. Escribe gpedit.msc y dale al botón aceptar.
61. 3. Se abrirá una ventana titulada Directiva de Grupo.
Ahí, en el panel izquierdo, dirígete a Configuración
local de equipo > Plantillas administrativas > Sistema.
4. Ahora, en el panel de la derecha, verás que existe
una serie de reglas que no están configuradas. Búsca
la que diga "Desactivar reproducción automática", y
haz doble click sobre ella.
5. En "Propiedades", selecciona la opción "habilitada"
y en donde dice"Desactivar reproducción automática
en" selecciona "Todas las unidades".
6. Puedes cerrar la ventana.
B) Inmunizar TODAS tus memorias USB
Esto evitará que muchos virus contagien tus memorias
(no es infalible, pero la mayoría de los virus serán
incapaces de meterse). Es un método casero.
1. En el explorador de windows, abrir tu memoria USB
(asegúrate que no tenga virus).
2. Crea una carpeta llamada "autorun.inf".
3. Click derecho en la carpeta -> "Propiedades".
4. habilita las casillas que dicen "Solo lectura" y
"Oculto".
5. Click en Aceptar.
6. (Opcional) Crear un archivo llamado "recylcler" a
secas, y hacerle lo mismo que al directorio autorun.inf.
Con esto muchos virus no podrán crear su "autorun.inf"
en dicha memoria. Para que sea mas facil, puedes
guardar una copia de dicha carpeta en alguna parte de
tu disco duro, y cada memoria que te pasen
62. simplemente copias la carpeta y pegas en la memoria
USB.
C) Evitar que corran ejecutables de virus conocidos
Con esto evitaremos que ciertos archivos .exe puedan
correr en el sistema. Esto es util porque he notado que
los víruses de memorias USB se repiten mucho (
tecnologia de los monitores
Monitor VGA: Los monitores
VGA por sus siglas en inglés “Video Graphics Array”,
fue lanzado en 1987 por IBM. A partir del lanzamiento
de los monitores VGA, los monitores anteriores
empezaban a quedar obsoletos. El VGA incorporaba
modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en
las tarjetas gráficas, los monitores anteriores no son
compatibles a los VGA, estos incorporan señales
analógicas.
Características:
63. Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con
16 colores.
Soporte de 320×200 píxeles en modo gráfico con
256 colores.
Las tarjetas gráficas VGA estándares
incorporaban 256 KB de memoria de vídeo.
Monitor SVGA: SVGA
denominado por sus siglas en inglés “Super Video
Graphics Array”, también conocidos por “Súper
VGA”. Estos tipos de monitores y estándares
fueron desarrollados para eliminar
incompatibilidades y crear nuevas mejoras de su
antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar
mayores resoluciones que el VGA. Este estándar
cuenta con varias versiones, los cuales soportan
diferentes resoluciones.
Características:
Resolución de 800×600, 1024_768 píxeles y
superiores.
64. Para este nuevo monitor se desarrollaron
diferentes modelos de tarjetas gráficas como: ATI,
GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se
pueden clasificar en varios aspectos. Estas
evoluciones de la tecnología han sido llevadas a
cabo en parte por el ahorro de energía, tamaño y
por brindar un nuevo producto en el
mercado.Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en
inglés “Cathode Ray Tube”. Es el más conocido,
fue desarrollado en 1987 por Karl Ferdinand
Braun.
Utilizado principalmente en televisores,
ordenadores, entre otros. Para lograr la calidad
que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se
realizan.
65. Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica
horizontalmente a lo largo de la pantalla, una línea
por vez. La amplitud de dicha señal en el tiempo
representa el brillo instantáneo en ese punto de la
pantalla.
Una amplitud nula, indica que el punto de la
pantalla que se marca en ese instante no tendrá
representando un píxel negro. Una amplitud
máxima determina que ese punto tendrá el máximo
brillo.
Ventajas:
Excelente calidad de imagen (definición,
contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.
Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y
magnéticasAlto peso y tamaño. Pantallas LCD:
66. A este tipo de tecnología
se le conoce por el nombre de pantalla o display
LCD, sus siglas en inglés significan “Liquid Crystal
Display” o “Pantalla de Cristal Líquido” en
español. Este dispositivo fue inventado por Jack
Janning.Estas pantallas son incluidas en los
ordenadores portátiles, cámaras fotográficas,
entre otros.
Angulo limitado de visibilidad.
Brillo limitado.
Bajo tiempo de respuesta de píxeles.
Contiene mercurio.
67. Pantallas Plasma: La
pantalla de plasma fue desarrollada en la
Universidad de Illinois por Donald L. Bitzer y H.
Gene Slottow.
Originalmente los paneles eran monocromáticos.
En 1995 Larry Weber logró crear la pantalla de
plasma de color. Este tipo de pantalla entre sus
principales ventajas se encuentran una la mayor
resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de
plasma consiste en iluminar pequeñas luces
fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como
las lámparas fluorescentes, en que cada píxel es
semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla
está formado por una pequeña celda estanca que
contiene un gas inerte (generalmente neón o
xenón). Al aplicar una diferencia de potencial entre
los electrodos de la celda, dicho gas pasa al
estado de plasma.
68. El gas así cargado emite radiación ultravioleta
(UV) que golpea y excita el material fosforescente
que recubre el interior de la celda. Cuando el
material fosforescente regresa a su estado
energético natural, emite luz visible.
Ventajas:
Excelente brillo.
Alta resolución.
Amplio ángulo de visión.
No contiene mercurio.
Tamaño de pantalla elevado.
Desventajas:
Vida útil corta.
Coste de fabricación elevado, superior a los LCD.
Consumo de electricidad elevado.
Poca pureza del color.
Consumo energético y emisión de calor elevada.
69. ¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima
resolución de imagen) que puede ser mostrada en
la pantalla. Viene dada por el producto de las
columnas (“X”), el cual se coloca al principio y el
número de filas (“Y”) con el que se obtiene una
razón. Por ejemplo podemos encontrar:
Los monitores han evolucionado conjuntamente
con las tarjetas de vídeos. La necesidad de
mostrar resoluciones mayores, con alta calidad de
colores, ha llevado día a día a su desarrollo
tipos de microprocesadores
2006: INTEL CORE Y CORE 2 DUO
Intel lanzó ésta gama de procesadores de doble núcleo
y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos
con el conjunto de instrucciones x86-64, basado en el
la nueva arquitectura Core de Intel. La
microarquitectura Core regresó a velocidades de CPU
70. bajas y mejoró el uso del procesador de ambos ciclos
de velocidad y energía comparados con anteriores
NetBurst de los CPUs Pentium 4/D2 La
microarquitectura Core provee etapas de
decodificación, unidades de ejecución, caché y buses
más eficientes, reduciendo el consumo de energía de
CPUs Core 2, mientras se incrementa la capacidad de
procesamiento. Los CPUs de Intel han variado muy
bruscamente en consumo de energía de acuerdo a
velocidad de procesador, arquitectura y procesos de
semiconductor, mostrado en las tablas de disipación
de energía del CPU. Esta gama de procesadores fueron
fabricados de 65 a 45 nanómetros.
2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro
Devices (AMD) a la primera generación de
procesadores de tres y cuatro núcleos basados en la
microarquitectura K10. Como característica común
todos los Phenom tienen tecnología de 65 nanómetros
lograda a través de tecnología de fabricación Silicon
on insulator (SOI). No obstante, Intel, ya se encontraba
fabricando mediante la más avanzada tecnología de
proceso de 45 nm en 2008. Los procesadores Phenom
están diseñados para facilitar el uso inteligente de
energía y recursos del sistema, listos para la
virtualización, generando un óptimo rendimiento por
vatio. Todas las CPUs Phenom poseen características
como controlador de memoria DDR2 integrado,
71. tecnología HyperTransport y unidades de coma
flotante de 128 bits, para incrementar la velocidad y el
rendimiento de los cálculos de coma flotante. La
arquitectura Direct Connect asegura que los cuatro
núcleos tengan un óptimo acceso al controlador
integrado de memoria, logrando un ancho de banda de
16 Gb/s para intercomunicación de los núcleos del
microprocesador y la tecnología HyperTransport, de
manera que las escalas de rendimiento mejoren con el
número de núcleos. Tiene caché L3 compartida para
un acceso más rápido a los datos (y así no depender
tanto de la propia latencia de la RAM), además de
compatibilidad de infraestructura de los socket AM2,
AM2+ y AM3 para permitir un camino de actualización
sin sobresaltos. A pesar de todo, no llegaron a igualar
el rendimiento de la serie Core 2 Duo.
2008: INTEL CORE NEHALEM
Intel Core i7 es una familia de procesadores de cuatro
núcleos de la arquitectura Intel x86-64. Los Core i7 son
los primeros procesadores que usan la
microarquitectura Nehalem de Intel y es el sucesor de
la familia Intel Core 2. FSB es reemplazado por la
interfaz QuickPath en i7 e i5 (socket 1366), y
sustituido a su vez en i7, i5 e i3 (socket 1156) por el
DMI eliminado el northBrige e implementando puertos
PCI Express directamente. Memoria de tres canales
(ancho de datos de 192 bits): cada canal puede
soportar una o dos memorias DIMM DDR3. Las placa
72. base compatibles con Core i7 tienen cuatro (3+1) o
seis ranuras DIMM en lugar de dos o cuatro, y las
DIMMs deben ser instaladas en grupos de tres, no dos.
El Hyperthreading fue reimplementado creando
nucleos lógicos. Está fabricado a arquitecturas de 45
nm y 32 nm y posee 731 millones de transistores su
versión más potente. Se volvió a usar frecuencias
altas, aunque a contrapartida los consumos se
dispararon.
2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de
microprocesadores o CPUs multinúcleo (multicore)
fabricados en 45 nm, la cual sucede al Phenom original
y dieron soporte a DDR3. Una de las ventajas del paso
de los 65 nm a los 45 nm, es que permitió aumentar la
cantidad de cache L3. De hecho, ésta se incrementó
de una manera generosa, pasando de los 2 MB del
Phenom original a 6 MB.
2010: INTEL CORE SANDY BRIDGE
Los próximos procesadores de Intel de la familia core
2011: AMD BULLDOZER
Los próximos procesadores de AMD de la familia
Fusion
73. html 5
HTML 5 (HyperText Markup Language, versión 5) es la
quinta revisión importante del lenguaje básico de la
World Wide Web, HTML. HTML 5 especifica dos
variantes de sintaxis para HTML: un «clásico» HTML
(text/html), la variante conocida como HTML5y una
variante XHTML conocida como sintaxis XHTML5 que
deberá ser servida como XML (XHTML)
(application/xhtml+xml).1 , 2 Esta es la primera vez
que HTML y XHTML se han desarrollado en paralelo.
El desarrollo de este código es regulado por el
Consorcio W3C.
[editar]Nuevos elementos
HTML 5 establece una serie de nuevos elementos y
atributos que reflejan el uso típico de los sitios web
modernos. Algunos de ellos son técnicamente
similares a las etiquetas <div> y <span>, pero tienen
un significado semántico, como por ejemplo <nav>
(bloque de navegación del sitio web) y <footer>. Otros
elementos proporcionan nuevas funcionalidades a
través de una interfaz estandarizada, como los
elementos <audio> y <video>.
Mejoras en el elemento <canvas>
Algunos elementos de HTML 4.01 han quedado
obsoletos, incluyendo elementos puramente de
presentación, como <font> y <center>, cuyos efectos
son manejados por el CSS. También hay un renovado
enfasis en la importancia del scripting DOM para el
comportamiento de la web.
74. [editar]Diferencias con HTML 5 y XHTML
Nuevas etiquetas:
article, section. Para indicar partes de un artículo
datalist. Opción de autocompletar con una lista de
valores.
details, legend. Para mostrar / ocultar texto sin
javascript.
dialog, dt, dd. Para escribir conversaciones.
canvas. Para mostrar gráficos.
ins (inserciones), del (borrados) con marca de
tiempo
figure, figcaption. Para asociar un contenido
multimedia (una foto, un vídeo, etc) a un título o
leyenda.
keygen. Para generar una clave criptográfica y
enviarla.
menu, command. Describir un menú con opciones.
output, input. Formularios. Indicar si son datos de
entrada o de salida.
progress, meter. Barra de progreso de una tarea.
ruby, rp (texto alternativo), rt (elemento del
alfabeto). Indica texto escrito en alfabetos
japoneses, chinos …
video. Para mostrar videos sin ningún plugIn.
Atributos mínimos de todas las etiquetas (los mas
interesantes):
75. Dir. Indica la direccionalidad del contenido, los
posibles valores son: ltr (de izquierda a derecha) y
rtr (de derecha a izquierda)
Contenteditable. Para indicar que el elemento es
editable por el usuario. Muy interesante, ya que
ahora podremos editar cualquier cosa de manera
trivial para el desarrollador, no solamente los
elementos de un formulario. Permitirá indicar que
elementos son modificables.
contextmenu. Para indicar un menú contextual
sobre un elemento. Pensado para poder emular
una aplicación de escritorio desde el navegador.
data-*
Donde el asterisco puede ser cualquier nombre.
Esto permite atributos personalizados, que luego
podremos obtener con Javascript. Por ejemplo el
atributo data-foo-bar="" se podrá acceder mediante
el API DOM con element.dataset.fooBar (elimina los
separadores ‘-’ )
Ejemplo de código HTML 5 que utiliza esta
funcionalidad para guardar valores en atributos
personalizados:
creative commons
Creative Commons (CC) es una organización no
gubernamental sin ánimo de lucro que desarrolla
planes para ayudar a reducir las barreras legales de la
creatividad, por medio de nueva legislación y nuevas
tecnologías. Fue fundada por Lawrence Lessig,
profesor dederecho en la Universidad de Stanford y
especialista en ciberderecho, que la presidió hasta
marzo de 2008.
Creative Commons (en español: «bienes