sábado, 8 de junio de 2013

TEMA 6 "LA ALDEA GLOBAL"

LA ALDEA GLOBAL

INFORMACIÓN Y TECNOLOGÍA

En Septiembre de 2007, los monjes budistas de Birmania abandonaron sus tranquilos monasterios para encabezar manifestaciones pacíficas en defensa de la democracia.
Con los medios de comunicación controlados por una junta militar, en el poder desde 1962, Internet fue la clave para dar a conocer al mundo la situación en el país del sudeste asiático. Las protestas fueron reprimidas con violencias: llegaron a morir decenas de personas.
Las imágenes de las manifestaciones burlaron la censura y se enviaron por correo electrónico, los testimonios de la represión se difundieron en los blogs y en YouTube se pudo ver la opulenta vida de los generales birmanos en uno de los países con mayor pobreza y corrupción.
Los militares respondieron cortando el acceso a la Red durante una semana, pero no pudieron impedir que las noticias corrieran ya por el ciberespacio como la pólvora.
Miles de manifestaciones, coordinados en ciudades de los cinco continentes, exigían a sus gobiernos una reacción.
Los activistas se habían auto organizado en Internet por medio de Facebook, una red social de contactos que fue creada originalmente para hacer amigos en la universidad.
A un canadiense de 19 años, que había viajado ese verano por Birmania, se le ocurrió usar ese mismo sistema para iniciar una campaña política. En pocos días tenía a 300.000 personas apoyándole: era la envidia de cualquier ONG.
Ante esta movilización global, algunos líderes de las principales potencias respondieron prometiendo sanciones contra la dictadura Birmania.
Internet ya no es solo un sitio donde acceder gratis a información de todo tipo y descubrir qué está pasando en cualquier país, sino que permite a cualquier ciudadano intervenir en la política internacional.
Una misma persona puede redactar y también corregir la mayor enciclopedia del mundo, comprar libros y antigüedades en una subasta internacional, colaborar en la investigación de una cura para el sida, difundir sus propias noticias por todo el planeta, descubrir y promocionar nuevos talentos musicales o, simplemente, divertirse o compartir sus vivencias con la familia y los amigos aunque estén lejos. Todas esas cosas, inaccesibles en solitario, son posibles cuando los individuos se conectan entre sí con sus ordenadores, consolas y dispositivos móviles.
Esas multitudes interconectadas comparten tanto información como recursos y forman redes y comunidades. Todo ello gracias a unas armas de colaboración masiva: las tecnologías de la información.

INTERNET: NACIDA PARA COMPARTIR

Es difícil imaginarse el mundo sin Internet, pero ¿puede estropearse la Red?
http://definicion.de/red/
La Red, conjunto de computadoras con conexión a internet.
En 2002 sufrimos varios apagones regionales en España durante unas horas y en Estados Unidos falló por un día uno de los mayores proveedores mundiales, WorldCom. Ese día muchos mensajes de correo electrónico llegaron con retraso, algunos incluso se perdieron y se ralentizó el tráfico por todo el ciberespacio.
Sin embargo, Internet fue diseñada a prueba de fallos: no existe una central en la que se pueda producir una avería que a su vez provoque un apagón mundial. Es como una red de pesca en la que los ordenadores son los nudos: la información logrará encontrar un camino entre dos nudos, aunque haya agujeros en medio. Una red así parece invulnerable. Y en plena Guerra Fría, eso entusiasmó a los jefes militares de Estados Unidos que pusieron en marcha Arpanet, la procesadora de Internet.
Se ha dicho que el proyecto nació como un sistema militar residente en una eventual ataque nuclear de los soviéticos.
http://www.definicion.org/arpanet
Pero, en realidad, el Departamento de Defensa estadounidense financió Arpanet para que las universidades de ese país pudieran compartir sus ordenadores, conectándolos entre sí aunque fueran de distintos fabricantes y funcionaran de manera muy diferente. Así, en 1969 la comunidad científica de Estados Unidos empezó a compartir datos, novedades sobre sus investigaciones y mensajes personales.
Desde 1972 están circulando las arrobas del correo electrónico, @, que separan el nombre del usuario y la dirección del ordenador servidor en el que se aloja su buzón, de modo similar a como se usa un apartado de correos universales.

Ciberespacio

Ciberespacio suele usarse como sinónimo de Internet, pero no se refiere a la red de comunicaciones en sí, sino al mundo virtual en el que existen las páginas web. Así pues, más que un complejo objeto como el que muestra la fotografía es una metáfora mejor representada en la ilusión visual: el triángulo blanco que no existe en ninguna parte pero une entre sí ordenadores de todo el planeta.
http://www.wordreference.com/definicion/ciberespacio
Aunque el ciberespacio no es algo material, se han realizado cálculos científicos para estimar su peso: unos 50 gramos, según un método que hace un recuento del número de electrones necesarios para mantener un funcionamiento la red global y los multiplica por su masa (9,1 x 10 kg)

Paquetes de información
Ahí se acaba cualquier parecido con el correo tradicional. En el buzón virtual del remitente el mensaje se divide en partes que viajan por rutas diferentes, por cualquiera de los caminos posibles de esa red global, hasta llegar al buzón del destinatario. Es aquí donde se reúnen los trozos del mensaje y se recompone la postal electrónica.
En Internet la información siempre viaja troceada en pequeños paquetes de un máximo de 1500 bytes (que equivalen a 250 palabras de texto, una décima de segundo de música en MP3).
De esta manera, cuando se produce un mínimo corte o interferencia se reenvían de forma automática solo los paquetes extraviados y no hay que repetir la transmisión paquetes extraviados y no hay que repetir la transmisión entera, como sucede al mandar una página de fax por línea telefónica.
En su ruta, cada paquete puede pasar por cientos de ordenadores intermediarios, del mismo país o de otros; y funcionan con Windows, con Mac OS, con Linux o bien con cualquier otro sistema operativo.
En la Red todos hablan el mismo idioma, una especie de esperanto informático: el TCP/IP.
El TCP/IP es el conjunto d protocolos que comenzó a usarse en 1983 para dirigir el tráfico de los paquetes de información por Arpanet y garantizar que todos llegan a su destino.
Así nació la actual Internet. Redes de uno y otro país, redes públicas y privadas, redes de alta velocidad con cables de fibra óptica, redes más modestas por vía telefónica, redes inalámbricas...., todas se sumaron a la red original.
La aportación europea fueron las páginas web, creadas en 1991, que popularizaron la Red. Más de 1300 millones de personas (uno de cada cinco habitantes del planeta) estaban conectados en 2008. Y cada día son más.
El reto no solo es aumentar ese número, sino también el porcentaje de conexiones de banda ancha (alta velocidad y acceso permanente) que es necesario para realizar el envío de archivos muy pesados y para disponer de servicios como la videoconferencia.

SÍMBOLOS Y DIRECCIONES DE INTERNET
La historia de la @


Además de en las direcciones de correo electrónico, esa <@> con melena peinada hacia atrás se usa como símbolo de modernidad. Sin embargo, la arroba ya navegaba hace cinco siglos en los barcos de los mercaderes venecianos. En una carta mercantil de 1536 aparece como abreviatura del ánfora, una  antigua unidad de peso y capacidad usada en el comercio por el Mediterráneo.
Tanto griegos como romanos usaban el ánfora, un cántaro alargado de cerámica, con una capacidad de 26,2 Litros.
Los comerciantes anglosajones la utilizaban desde el siglo XIX con el significado de <al precio de>. En sus libros de contabilidad anotaban cosas como <2 sillas @ 4 dólares>. Por eso el símbolo ya estaba en los teclados de las máquinas de escribir antes de que existiese internet.
La arroba saltó a la fama por casualidad en 1972. El ingeniero estadounidense Ray Tomlison diseñaba un sistema de correo electrónico para Arpanet y necesitaba un separador dentro de las direcciones. Tenía que ser un carácter que nadie usara en su nombre de usuario. Letras y números quedaban descartados. Tomlison bajó los ojos hacia el teclado y eligió ese como podía haber elegido otro.
En inglés @ se lee at, así, ray@gmail.com significa <ray en gmail.com>

Direcciones IP, la matrícula de los ordenadores
En internet cada ordenador se identifica por una dirección IP (Internet Protocol), del tipo 188.40.234.3. Esos cuatro número separados por puntos pueden tener valores desde el 0 hasta el 255. Con este sistema IPv4 los posibles direcciones solo 256: casi 4300 millones, ni siquiera una por persona. Los creadores de Internet no imaginaron que todo el mundo querría conectarse.
El actual sistema se agotará, como ocurre con el de las matrículas de los coches. Hoy se trabaja en la versión 6 del protocolo IP, con 3,4 x 10 posibles direcciones del tipo 2001: 0db8:85a3:1319:8a2e:0370:7334. Eso da unas 5000 por cada mm de superficie terrestre. Parece más que suficiente, incluso para un futuro en el que cada ordenador, teléfono móvil, iPod y coche estén conectados a Internet y tengan su propia dirección. Sin embargo, la transición al IPv6 es un reto tecnológico aún por resolver.
Cada vez que te conectas a Internet, lo habitual es que tu proveedor te asigne una dirección IP distinta, que además puede cambiar en pocas horas. Esta dirección de IP es una IP dinámica. Para tener una IP fija hay que pagar algo más.

DNS, navegamos como un intérprete
Los ordenadores se comunican en Internet mediante su direcciones IP, pero las personas necesitamos unas direcciones más fáciles de recordar que esas secuencias de números.
Los servidores de nombres de dominio (DNS) hacen de intérpretes entre usuarios y ordenadores.
Cuando escribimos una dirección, por ejemplo la del Ministerio de Educación y Ciencia, www.mec.es, el DNS la traduce a la dirección IP del servidor donde está alojada la página web que queremos visitar.
¿Cuántas IP te sabes de memoria?
Ninguna IP.
¿Cuántos número de teléfonos?
Número de teléfonos me se 8 aproximadamente.

CONEXIONES Y VELOCIDAD DE ACCESO A INTERNET

La cables de fibra óptica han adelantado a los de cobre en las autopistas de la información.
Formados por cientos de finísimas hebras de vidrio o plástico, estos claves permiten enviar muchos datos a gran velocidad. La información viaja a través de ellos en haces de luz que rebotan en las paredes de la fibra: gracias a la reflexión total interna de este material, la luz recorre grandes distancias sin interferencias electromagnéticas.
Pero las fibras son muy frágiles y es bastante difícil empalmar los cables.
Por este motivo, aunque es esqueleto de Internet sea de fibra óptica, a los hogares la conexión llega por otras vías.

Tipos de conexiones
Línea telefónica. Está pensaba para transmitir información analógica (voz), por eso es necesario utilizar un módem (modulador-demodulador), que convierte la información digital en pitidos de dos tonos (ceros y unos).
Su velocidad máxima de descarga es de 56600 bps (bits por segundo).
Cable. Los proveedores de cable tienden redes de fibra óptica bajo las calles, pero a las casas la conexión llega por un cable coaxial de cobre, similar al de la antena de televisión, que se conecta al módem de cable.
Está tecnología solo llega a núcleos de población importantes.
Es la conexión más rápida: hasta 30 Mbps (megabits por segundo).
ADSL. Mediante la utilización de las líneas telefónicas de cobre es posible un acceso de banda ancha que además permite hablar por teléfono al mismo tiempo.
Se necesita un módem especial y adaptar la centralita telefónica.
La velocidad máxima oscila 8 Mbps y 24 Mbps.
La velocidad de la conexión ADSL disminuye al alejarse de la centralita, como puedes observar en el siguiente gráfico:
Satélite. Existen diferentes sistemas. Unos reciben la información por antena parabólica y la envían a través de una línea telefónica, pero lo ideal es un servicio bidireccional que envía y recibe directamente al satélite.
En España es la conexión más cara y su velocidad máxima es de 2Mbps.
Telefonía móvil. La tecnología de tercera generación (3G) ofrece conexión de banda ancha para los teléfonos móviles y también para los ordenadores, ya sea mediante un módem 3G o a través de un teléfono.
De momento la cobertura no llega a todo el país.
Velocidad máxima: 7,2 Mbps.

Wifi, compartir la conexión
Con independencia del tipo de conexión que se haya solicitado al proveedor de Internet, dentro de casa el módem o router que contiene tecnología Wifi crea una red que permite conectar varios ordenadores sin cables desde cualquier habitación.
Pero lo que los internautas demandan cada vez más es tener acceso inalámbrico en cualquier punto de la ciudad.
Existen ya muchos puntos de acceso Wifi (hotspots) en lugares públicos como bibliotecas, cafeterías, aeropuertos, hoteles, etc.., que pueden ser abiertos y gratuitos, de pago o restringidos a clientes.
Otra alternativa es unirse a una comunidad Wifi y compartir la conexión con otras personas. Así tendrás acceso gratuito cerca de la casa de cualquier miembro de tu comunidad.
Su comodidad ha hecho que las redes inalámbricas hayan proliferado tanto que ya se habla de contaminación Wifi.
Demasiados punto de acceso en su vecindario crean interferencias y saturan una banda de frecuencias (2,4 GHz) a la que también operan los hornos microondas y los móviles con Bluetooth.

NAVEGADOR WEB: MOMENTOS ESTELARES DE LA HISTORIA
Si en toda esta revolución tecnológica quisiéramos señalar <el día en que cambio el mundo>, propondríamos el 13 de Octubre de 1994, fecha en la que se lanzó la primera versión de Netscape, el primer navegador web al alcance del gran público.
Este programa fue la <aplicación bomba> que logró extender el uso de Internet y llegó a convertirla en un fenómeno de masas, pues liberó a la red de redes de su gueto académico y militar.
Las páginas web habían sido creadas en 1991 en el CERN, el prestigio laboratorio de física de partículas de Ginebra (Suiza).
El Programador Británico Tim Berners-Lee ideó un sistema sencillo con el fin de que científicos de todo el mundo pudieron compartir los resultados de sus investigaciones, publicándolos en unos documentos enlazados entre sí en una especie de telaraña mundial o, como é lo llamo en inglés, World Wide Web (www).
Su gran idea fue usar los enlaces de hipertexto para saltar de una página a otra, pero ellos solo se podía ver texto; había que cargar aparte las imágenes. Aquello, además de no ser muy intuitivo, solo funcionaba en costosas estaciones de trabajo que utilizaban sistema operativo UNIX.
Hipertexto es el texto que contiene elementos (conocidos como hipervínculos o enlaces) que permiten acceder a otra información.
Se empezaba a hablar de las autopistas de la información, pero con aquellos <viejos cacharros> apenas se circulaba por ellas.
Hasta que Marc Andreessen, estudiante del Centro Nacional de Aplicaciones de Supercomputación (NCSA) de Estados Unidos, lo vio claro: un navegador tenía que mostrar páginas con imágenes, sonidos y vídeos incrustados entre un texto con diferentes estilos y tipos de letra. Y para seguir los enlaces bastaría con un simple clic sobre una palabra subrayada.
Así surgió Mosaic en 1993, el primer navegador web con interfaz gráfica (con una barra para poder teclear las direcciones y los botones para avanzar retroceder y recargar páginas) disponible para Windows, Mac y UNIX.
Entre los pioneros de la web, algunos temían que las páginas multimedia que se veían con Mosaic atrajeran a multitud de usuarios que estos colgaran fotos de todo tipo, usaran molestos sonidos de fondo y distribuyeran videos de tan poco interés científico como los primeros pasos de sus hijos.
Aquellos visionarios acertaron de nuevo. Cuanta más gente probaba el navegador, más contenidos se creaban, y eso atraía a nuevos usuarios a la web (uno de los muchos servicios de Internet), que también usaban Mosaic. El número de sitios web comenzó a experimentar un crecimiento exponencial, se duplicaba cada tres meses.
Visto el éxito en el mundo científico, al acabar sus estudios, Marc Andreessen fue reclutado por un empresario de Silicon Valley donde fundaron Netscape, con el que la revolución llegó a los hogares a finales de 1994.
Aquel navegador era más fácil de usar y tenía mejoras importantes sobre Mosaic. Las páginas se visualizaban según se iban cargando, y se podían empezar a leer sin esperar con la pantalla en blanco hasta que se cargaran el texto y las imágenes. Esto podía llevar varios minutos con las primeras conexiones por módem. Además incluía un sistema criptográfico par poder realizar conexiones seguras por Internet.
Cualquier persona podía utilizar ya Internet. Así, millones de usuarios de todo el mundo se conectaron a la Red en 1995, y casi todos se asomaron al ciberespacio a través de una ventana de Netscape. Fue catalizador de una reacción en cadena que hizo realidad la idea de la aldea global.
Una década después casi nadie usa Netscape, pero sus sucesores siguen siendo el vehículo de un nuevo cambio: cualquiera que sepa manejar un navegador puede montar su diario personal o blog, o bien difundir imágenes y videos a todo el mundo, sin necesidad de programar en el lenguaje HTML de las páginas web.
Ahora los internautas tejen la web al mismo tiempo que navegan por ella.

Firefox, la reencarnación de Netscape
Firefox es hoy el navegador más avanzado en cuestiones de privacidad y seguridad.
Poco a poco ha ganado popularidad y ya es un símbolo de la cultura del software libre: es gratuito y cualquiera con conocimientos suficientes puede contribuir a mejorarlo porque su código está abierto y es público. Así, muchos programadores de todo el mundo ayudan con sus aportaciones a reforzar su seguridad.
El código de programación con el que está hecho Firefox está basado en el de Netscape, que, tras su enorme éxito inicial, fue barrido en pocos años por Internet Explorer hasta que desapareció. Por eso los creadores de Firefox quisieron llamarle Phoenix, como el pájaro mitológico que renace de sus cenizas. Pero la marca estaba registrada y el nombre definitivo es el animal en peligro de extinción.

Yahoo, los favoritos de todo el mundo
En 1994 dos estudiantes de la Universidad de Stanford (EEUU) publicaron una página con enlaces a sus sitios web favoritos: <<La guía de Jerry y David para la World Wide Web>>, que pronto cambiaron por un nombre con más gancho, Yahoo.
Fue el primer directorio de Internet y llegó a convertirse en la página de inicio de la mayoría de los internautas. Catalogaba las nuevas páginas en categorías y marcaba los mejores con un icono que representaba una gafas de sol.
Pero pronto esa tareas se convirtió en imposible. En 1997 se alcanzó el millón de sitios web: había empezado la era de los buscadores.
La manera inicial de navegar con directorios todavía es posible en http://es.dir.yahoo.com/

Un programa revolucionario
En la jerga informática se les conoce como Killer apps (aplicaciones asesinas). En Español, aplicaciones bomba: es el software que hace explotar una tecnología, de manera que desarrolla sus posibilidades y multiplica las ventas del hardware que lo soporta.
Si Netscape fue la aplicación bomba de Internet, otros programas convirtieron en grandes éxitos al PC, el Macintosh, y la Gameboy:
  • PC (1983). Las ventas del primer PC de IBM  fueron muy flojas hasta que salió al mercado una hoja de cálculo llamada Lotus 1-2-3, que lo convirtió en un best-seller en el mundo empresarial.
  • Macintosh (1985). Aldus PageMaker fue el primer programa de maquetación que mostraba las páginas tal cual en la pantalla (WYSIWYG, what you see is what you get). Este programa hizo que el Macintosh de Apple conquistara a los diseñadores gráficos.
  • Gameboy (1989). El juego de Tetris se hizo muy popular desde su lanzamiento en 1985, pero hizo un dúo imbatible son la Gameboy. Este juego venía incluido en la consola portátil de Nintendo, que sedujo tanto a los niños como a los adultos deseosos de jugar al Tetris en cualquier lugar.

GOOGLE: EL ALGORITMO QUE LO BUSCA TODO
En la vida real es el eslogan interno de Google y resume en tres palabras el código ético adoptando por los fundadores del principal buscador de Internet para evitar que se les fuera de las manos. Lo que empezó en un garaje de Silicon Valley, como tantas otras aventuras tecnológicas, es hoy de gigantescas empresa que gestiona más información, pública y privada, en todo el mundo.
La semilla de Google fue un proyecto de investigación de los estudiantes. En 1996, en plena eclosión de Internet, el número de webs se multiplicaba. Encontrar la información se convirtió en un serio problema. En los buscadores de la época los primeros resultados eran las páginas que más veces contenían el término buscado, que no siempre eran los que tenían buena información.
Larry Page y Sergey Brin, estudiantes de doctorado en la Universidad de Stanford (California, Estados Unidos), plantearon su hipótesis: una página es más importante cuanto más enlaces apunten hacia ella.
En la práctica, había que ir más allá, pues un enlace desde el New York Times es más valioso que desde una página personal cualquiera. Así que los primeros resultados de una búsqueda debían ser las páginas más enlazadas desde otras páginas relevantes. Los detalles de cómo Google determina eso están en un complejo algoritmo, una fórmula patentada con el nombre de PageBank que se estuvo cociendo durante casi dos años.
Cuando el algoritmo estuvo listo, Page y Brin trataron de vender su motor de búsqueda. No tenían demasiado interés en montar su propia empresa, pero los grandes portales de Internet tampoco tenían mucho interés en mejorar sus buscadores. Así que siguieron por su cuenta, con la ayuda de varios inversores que pusieron un millón de dólares, y de un amigo que les alquiló su garaje.
<<To Google>> aparece en los diccionarios de inglés como verbo que significa buscar en Internet, ya sea con ese o con otros, como Yahoo, MSN o Ask.com. El país más glooglero del mundo es España.

Silicon Valley es un estado de ánimo

Silicon Valley no aparece en Google Maps ni en ningún atlas. La meca de innovación tecnológica no es un área geográfica ni un distrito administrativo.
En la actualidad se llama Silicon Valley a una zona del norte de California situada entre las ciudades de San Francisco y San José, aunque no hay un consenso sobre sus límites.
El término de Silicon Valley, acuñado en 1971 por un periodista, se debe a la alta concentración de empresas informáticas(que usan chips  de silicio) en el norte del valle de Santa Clara.
Pero con el crecimiento de esa industria en la zona, impulsada desde la Universidad de Stanford, la localización geográfica ya no define Silicon Valley con tanta precisión como la actualidad de sus habitantes, emprendedora y abierta hacia las nuevas tecnologías.
Varias de sus grandes empresas fueron fundadas por estudiantes en un garaje, que servía al mismo tiempo de laboratorio y oficina:
  • Hewlett-Packard: Palo Alto (1938)
  • Apple: Los Altos (1976)
  • Google: Menlo Park (1998)
Engañar a Google
El <<google bombing>> es una trampa para que una página aparezca en los primeros lugares al buscar una palabra determinada. Teniendo en cuenta cómo funciona Google, ¿cómo crees que se puede hacer?
Está técnica empezó a usarse en reivindicaciones sociales y políticas, como ocurrió, por ejemplo, en el caso de la crisis del vertido del petróleo Prestige en 2002: http://google.dirson.com/prestige.php
También se usa para desacreditar a personas o promocionar productos. En 2007 los ingenieros de Google incorporaron un pequeño algoritmo para minimizar el efecto de estas bombas.

LOS NAVEGANTES TEJEN LA RED
Blog. El boca a boca del ciberespacio
Esta nueva posibilidad surgió a finales de los años noventa gracias al blog (abreviatura del weblog) o bitácora.
El blog es un tipo de página web en la que uno o varios autores escriben de forma periódica sobre temas de su interés y donde los lectores pueden dejar sus comentarios.
Así se generan conversaciones y debates de los que surgen comunidades de personas con interés afines, muchas de ellas con su propio blog.
Otra particularidad de los blogs son los enlaces. Los artículos, además de texto e imágenes, suelen contener enlaces a otras páginas que llaman la atención del autor. De esta manera da a conocer esas páginas que es posible que otros también las enlacen desde sus blogs.
Los blogs tienen el poder de difundir y hacer relevante una información, aparezca o no en los periódicos.

Wikipedia. La sabiduría de las multitudes
Todo el mundo es un experto en algo. Con esta idea nació en 2001 la Wikipedia, una enciclopedia que permite cualquier usuario pueda añadir y modificar sus contenidos desde su navegador web.
La Wikipedia tiene pocos trabajadores a tiempo completo, y en ella colaboran millones de voluntarios de todo el mundo que se auto organizan para controlar la calidad de sus contenidos.
En 2007 la Wikipedia se convirtió en la décima web más visitada. Es el lugar más habitual para empezara informarse sobre un tema, aunque nunca debería ser el único.

Web 2.0: el espectador es el protagonista
En 2006 la conocida revista Time te nombró a ti, internauta, persona del año.
Este hecho se debió a que 2006 fue el año en el que las nuevas webs, creadas o mejoradas gracias a la colaboración de los propios usuarios (las que forman la llamada Web 2.0), empezaron a superar en visitas a las webs tradicionales: Wikipedia superó a la Britannica, Blogger superó a la CNN, Google Maps superó a MapQuest.

ORDENADOR: PROBLEMAS COMPLEJOS, DECISIONES SIMPLES
Un ordenador hace mucho más que ordenar. Es una palabra prestada del francés ordinateur, que es la traducción del original inglés computer. Con ese nombre se designaba a los especialistas en hacer cálculos numéricos y en el siglo XIX comenzó a aplicarse a máquinas, que calculaban cada vez más rápido.
En el siglo XX, cuando los engranajes de las máquinas se sustituyeron por componentes electrónicos, se generalizó el uso de la palabra <<ordenador>>. Estos componentes tenían el inconveniente de que se construían para resolver un problema determinado y había que cambiarlos sí se querían usar para otro fin.
Hasta que en 1936 un estudiante inglés, Alan Turing, pensó en una computadora que lograría resolver todo tipo de problemas que pudiera traducirse en términos matemáticos y luego reducirse a una cadena de operaciones lógicas con números binarios en las que solo cabían dos decisiones: verdadero o falso. La idea era reducir todo (cifras, letras, imágenes, sonidos) a ristras de unos y ceros y usar una receta, un programa, para resolver los problemas en pasos muy simples.
Había nacido el ordenador digital, pero era una máquina imaginaria. Tras la Segunda Guerra Mundial, en la que ayudó a descifrar el código Enigma de los mensajes en clave de los nazis, Turing creó uno de los primeros ordenadores como los actuales, digital y también programable: podía usarse para muchas cosas con solo cambiar el programa.

Evolución permanente
La máquina de Turing prontó quedó obsoleta, como pasa ahora. Los ordenadores han seguido duplicando su potencia de cálculo cada año y medio, como predijo Gordon Moore en 1965.
Por muy rápido que sea ahora un PC, para usarlo todavía hay que esperar cerca de un minuto mientras arranca tras unas comprobaciones, empieza a copiar el sistema operativo (el programa imprescindible para funcionar) desde el disco dura hasta la memoria RAM. Cada vez que se enciende el ordenador hay que repetir el proceso, pues la memoria se borra al apagar y cada casilla de información o bit (que puede valer de 0 a 1) marca 0.
Turing solo llegó a ver los primeros cerebros electrónicos. Él creía que los ordenadores sí podrían llegar a pensar y, con el programa adecuado, hacer cosas como chatear sin que pudiéramos distinguir si nuestro interlocutor era una persona o un ordenador. Nadie ha conseguido crear todavía un programa que supere una prueba denominada test de turing.
Con 40 años Turing había abierto el campo de la Inteligencia Artificial, pero en la cumbre de su carrera científica fue condenado por mantener relaciones homosexuales. Para evitar la cárcel, aceptó someterse a un tratamiento hormonal. Dos años más tarde murió, tras dar el primer bocado a una manzana envenenada con cianuro. Mucho después, una marca de ordenadores adoptó como símbolo una manzana arco iris como homenaje.

EJERCICIO PÁGINA 236
Chatea con un ordenador
Un bot de charla (o chabot) es un programa que está diseñado para similar una conversación inteligente con humanos. Pero ninguno lo hace tan bien como para superar el test de turing.
  • Busca bots de charla en Internet, prueba diferentes modelos. A continuación describe sus tácticas para hacerse pasar por una persona y explica por qué nota que lo es.
Te puedes hacer pasar por alguien, te das cuenta si es así porque dice cosas sin sentidos o muy exageradas de sí mismo....sí no se hace pasar por otra persona, te habla de forma más natural espontanea con cosas habituales y comunes.

Software, hardware y firmware: trabajo en cadena.
El Software de los ordenadores es el manual de instrucciones que permite convertir un problema, una tarea, en una gran cantidad de operaciones matemáticas sencillas, que se calculan a gran velocidad.
Los programas y juegos están en el primer eslabón de esa cadena: convierten nuestras acciones y deseos en tareas aún muy complejas que realiza el sistema operativo. Por ejemplo, si pulsas el botón <<Nuevo documento>> de su procesador de textos, el programa le pide al sistema que abra una ventana y este le pasa la orden a sus bibliotecas de funciones.
Algunos programas necesitan funciones que no tiene el sistema (por ejemplo, la capacidad para ver películas en formato DivX) y se las añaden instalando más bibliotecas o unos módulos llamados plug-ins.
Las funciones del sistema o las añadidas convierten cada tarea en una larguísima serie de instrucciones que son especificas para el hardware: el microprocesador, la memoria RAM, el disco duro, la tarjeta gráfica, el grabador de DVD, etcétera.
El sistema operativo se relaciona con los dispositivos anteriores a través de otro software, los controladores.
Esta estructura encadenada hace que un programa hace que un programa pueda ejecutarse sin problemas en muchos ordenadores distintos, pero combatibles.
El software aparece como algo casi independiente del hardware. La cadena de instrucciones sigue dentro de los dispositivos (internos) y periféricos (accesorios) del ordenador. Cada uno de estos contiene un pequeño ordenador que controla sus motores y circuitos electrónicos mediante otro programa tan ligado a los componentes electrónicos que no se considera software, sino firmware.
Algunas prestaciones del periférico  se pueden mejorar si se cambia el firmware. Por ejemplo, al actualizar el firmware de un iPod podemos corregirle fallos de funcionamiento o enseñarle nuevas funciones, como leer los más recientes formatos de música o vídeo.

Una máquina para sustituir al doctor House
El televisivo doctor House es un ejemplo de cómo la intuición, la experiencia o bien una corazonada ayudan a los humanos a la hora de tomar decisiones complicadas.
Un ordenador no cuenta con este factor humano, pero en los hospitales ya comienzan a usarlos para decidir el mejor tratamiento para algunos paciente, ya que gracias a programas de minería de datos, que analizan múltiples variables y sus relaciones, sus relaciones son muy acertadas.

ALMACENAMIENTO DIGITAL DE LA INFORMACIÓN
Bits y bites, bocaditos de información
La forma más cómoda de llevar información es el llavero de memoria (pincho USB, lápiz de memoria o pen drive).
En su interior hay un chip, formado por multitud de celdas que funcionan como diminutos interruptores con dos posiciones: on y off, que equivalen a 0 y 1 en sistema binario. Así, cada casilla almacena bit (Binary digiT) de memoria.
Un bit es la cantidad mínima de información, pero es muy raro verlos en solitario.
En nuestros ordenadores, los bits están agrupados en octetos llamados bytes (1 byte=8bits=un bocadito, en inglés).
¿Por qué ocho? El caso es que con los 8 bits de un byte pueden representarse 256 valores: del 00000000 al 11111111 en sistema binario, que es lo mismo que decir del 0 al 255 en números decimales.
Y con estos 256 caracteres diferentes, los occidentales tenemos más que suficiente para escribir cualquier cosa.
El código ASCII se usa para almacenar documentos de texto en la memoria y en los discos.
El código ASCII traduce en un solo carácter (letra, número, símbolo) cada uno de los 256 posibles valores binarios de un byte.

Imagen digital, el puntillismo informática
Los ordenadores, teléfonos móviles, navegadores, GPS, iPod, etc., son artistas del puntillismo. En sus pantallas, una imagen es un cuadro de diminutos puntos llamados píxeles.
El realismo de la imagen depende de la cantidad de información usada para colorear cada píxel.
Lo mínimo es 1 bit por píxel: dos colores, blanco y negro. Pero lo que tradicionalmente llamamos imagen en blanco y negro es en realidad una escala de grises.
Con 1 byte podemos representar 256 tonos diferentes para cada píxel y eso es suficiente para visualizar una fotografía, aunque se diga que entre el blanco y el negro hay una infinita gama de grises.
Si queremos ver la foto en color necesitamos 3 bytes por píxel.

Comprensión, quedarse con lo imprescindible
Para visualizar y mandar fotos por Internet se suelen guardar en JPG, un formato que comprime el tamaño del archivo entre 10 y 20 veces con una pérdida de calidad aceptable, usando un complejo algoritmo.
También se pueden perder datos al comprimir música en MP3 o películas en DivX: estos formatos descartan información redundante.
En cambio, para documentos de texto se usan formatos de comprensión sin pérdida de datos, como el ZIP, pues no interesa que al descomprimir falten letras o palabras.

COMPARTIR LA PROPIEDAD INTELECTUAL
MP3. Comprimido de música digital
En los años ochenta y noventa, en plena era del Walkman y el Discman (los primeros reproductores de música portátil) llevar miles de canciones en el bolsillo parecía un sueño imposible. Hoy se puede hacer gracias al MP3.
La industria musical ha cambiado por completo, pero no ha sido por decisión propia, como cuando se lanzó la cinta de caseta o el CD, sino por la revolución iniciada en Internet por los amantes de la música. Las tecnologías que han hecho posible el cambio son la digitalización y la compresión.
Digitalización
Digitalizar sonido o vídeo tiene una gran ventaja: cada copia es un clon idéntico al original, mientras que con cada copia sucesiva de una cinta analógica se pierde calidad.
Para guardar un texto en un ordenador basta con traducir letras a bytes el código ASCII.
No es tan fácil convertir el sonido (analógico) en una ristra digital de unos y ceros que un ordenador pueda almacenar y procesar. La señal analógica es una onda continua, que vemos como una curva. Al convertirla a digital lo que hacemos es tratar de reproducir esa curva con barras verticales que representan muestras de audio tomadas cada cierto tiempo.
Comprensión
Pero esos archivos son muy grandes . Así, en un CD de 700 megabytes caben 80 minutos de música. Descargar una sola canción con un módem de 56 Kbps llevaba horas. Había que reducir el tamaño del archivo sin perder calidad.
La solución fue el MP3, un formato comprimido de música digital que descarta los sonidos que el oído humano medio no puede recibir y los que no se oyen cuando suenan al mismo tiempo que otros.
El algoritmo de comprensión MP3 consigue que se reduzca 11 veces al tamaño del archivo y mantiene casi la misma calidad de sonido de un CD.
Además, cada archivo MP3 contiene unos bytes extra en los que se almacena información como el título de la canción, autor, año de grabación, etcétera.
P2P.Redes de intercambio de archivos
Con el invento del formato MP3 los internautas empezaron a compartir canciones. ¿Cómo poder encontrarías y descargarlas a buena velocidad?
En 1998 un estudiante universitario de 18 años creó Napster, un programa de intercambio de archivos basado en la tecnología P2P (peer-to-peer), cuyo significado es <<comunicación entre iguales>>.
En Internet los ordenadores se comunican por lo general a través de servidores centrales: para compartir un archivo, un usuario tendría que subirlo a un servidor y otro descargarlo de allí. Con el P2P pueden enviarse los archivos directamente.
Esto abrió la vía de compartir a escala global, incluso material protegido con copyright. También abrió una batalla legal y las discográficas consiguieron que los jueces cerraran Napster.
Pero surgieron nuevas redes P2P como eDonkey, BitTorrent o Ares, que cada vez hacen más fácil compartir música, software y vídeos.

EJERCICO PÁGINA 241
¿Legal o no legal?
El criterio sobre sí es legal compartir música y películas usando redes P2P varía de un país a otro: España <<Una juez dice en una sentencia que las descargas de música con P2P son legales si no tienen ánimo de lucro>> (01/11/2006).
www.20minutos.es/noticia/167999/0/internet/sentencia/p2p/
Francia: <<Sarkozy acuerda con los proveedores cortar internet a los piratas reincidentes>> (23/11/2007)
www.adn.es/tecnologia/20071123/NWS-2432-Sarkosy-reincidentes-proveedores-internet-acuerda.HTML
Casi todos están de acuerdo en que debe ser legal.

SATÉLITE: CIENCIA FICCIÓN HECHA REALIDAD
Mientras servía en la Royal Air Force británica durante la Segunda Guerra Mundial. Arthur C. Clarke empezó a vender sus historias de ciencia ficción a varias revistas.
Quizá por eso nadie se lo tomó muy en serio cuando, recién terminada la guerra, en octubre de 1945, publicó un artículo científico titulado <<Repetidores extraterrestres>>. En este artículo Clarke proponía el uso de satélites como repetidores para que las emisoras de televisión pudieran tener una cobertura mundial. Entonces solo existían los satélites naturales: las lunas que tienen todos los planetas del Sistema Solar menos Mercurio y Venus.
En 1957 los soviéticos pusieron en órbita el primer satélite artificial, el Sputnik I, inaugurando la carrera espacial entre Rusia y Estados Unidos.
Un satélite tiene que estar a una altura de 35786 Km para mantenerse en esa órbita geoestacionaria y girar con la misma velocidad con la que rota la Tierra.
El 20 de julio de 169, unos 500 millones de personas de todo el mundo siguieron en directo la retransmisión de los primeros pasos de un ser humano sobre la Luna, gracias a que pocos días antes se había completado el primer sistema global de comunicaciones por satélite.
Se cumplía el sueño de Arthur C. Clarke, que ya era un escritor famoso. Un año antes se había estrenado 2001: Una odisea en el espacio, basada en una novela que escribió a la vez que Stanley Kubrick la película.
En homenaje a su predicción sobre las telecomunicaciones  hoy se conoce como <<órbita Clarke>> la órbita geoestacionaria, en la que también circulan satélites meteorológicos, de comunicaciones y militares, pero no de localización por GPS.
La Tierra vista desde el espacio
El programa Google Earth combina imágenes de la Tierra obtenidas desde satélites con fotografías aéreas y con representaciones en 3D de datos de información geográfica que aparecen en diferentes capas: localidades, carreteras, lugares de interés turístico, edificios, fotos, etcétera.
Está última tecnología, de los Sistemas de Información Geográfica (GIS), representa bases de datos sobre mapas digitales cuyo análisis tiene múltiples aplicaciones: conocer la mejor ubicación de un colegio u hospital, decidir que trazados de carreteras son los de menor impacto ambiental, usarlo en marketing, investigaciones científicas y criminológicas, etcétera.
Un ejemplo de estos sistemas es: Sistema de Información Geográfica de Parcelas Agrícolas. Este sistema se puede encontrar en:
www.sigpac.mapa.es/fega/visor/

GPS: LA BRÚJULA DEL SIGLO XXI
El sistema de Posicionamiento Global (GPS) nació en 1995 como una red de satélites de apoyo a la navegación marítima que permite conocer en todo momento y en cualquier condición meteorológica las tres coordenadas (latitud, longitud y altitud) que localizan un punto sobre la Tierra.
A lo largo de la historia, la necesidad de conocer la posición de un barco en alta mar llevó a la mejora de los conocimientos astronómicos y al desarrollo de relojes precisos e instrumentos de negación como el astrolabio.
El GPS resolvió este problema de forma definitiva usando una versión sofisticada de la técnica de triangulación, empleada desde el siglo XVIII para la medida precisa de los terrenos, la confección de mapas y los estudios topográficos.
Funciones del GPS
En los navegadores para vehículos, en lugar de las tres coordenadas GPS, la localización aparece como un indicador sobre un mapa de carreteras.
En este mapa pueden aparecer además la situación de gasolineras, zonas de velocidad reducida, radares, etcétera. Estos puntos de interés (PDI) están grabados en una base de datos que se pueden actualizar por Internet.
Además, el navegador calcula con un programa la mejor ruta entre la posición actual y al destino.
¿Puedes localizarme a través del GPS?
Es imposible localizar a nadie solo a través de un navegador, ya que, solo recibe la señal. Los sistemas de localización de vehículos o mercancías añaden un módulo emisor que transmite las coordenadas calculadas por el GPS. Las coordenadas se envían mediante el sistema de transmisión de datos GPRS, cuyas siglas invitan a la confusión.
A prueba de atascos
Para evitar atascos y errores al calcular las rutas, además de actualizar los mapas con frecuencia, es necesaria que el navegador reciba información de las incidencias por el Canal de Mensajes de Tráfico (TMC), por alguna emisora de radio o por teléfono móvil. Algunos modelos permiten a los usuarios hacer sus propias modificaciones (corregir errores en mapas, añadir tramos cortados...) y compartirlas con el resto a través de Internet.
Un sistema que falla a propósito
Conocer la ubicación exacta tiene gran utilidad militar. Por eso, el Departamento de Defensa de Estados Unidos, que desarrolló y gestiona este sistema, introdujo un error controlado de unos pocos metros de la señal pública del GPS.
Esto no es un problema para los navegadores de los coches. Los satélites emiten además una señal codificada de mayor precisión que pueden descifrar los dispositivos autorizados.
Funcionamiento del GPS
Sistema de satélites. Discurren por seis órbitas con distinta inclinación sobre el plano ecuatorial, con cuatro satélites en cada órbita. Así cualquier punto de la Tierra tiene de forma permanente a la vista suficientes satélites para determinar su posición.
Receptor. El navegador recibe la posición de cada uno de los satélites a la vista y calcula la distancia que hay hasta ellos, midiendo el tiempo que tarda en llegarle la señal que emiten. Para ellos es imprescindible que los relojes de los satélites y del receptor estén perfectamente sincronizados. Las señales viajan a la velocidad de la luz, y un desfase de apenas una milésima de segundo representa un error de varios Kilómetros.
Estaciones terrestres. Controlan las órbitas de los satélites y se encarga de su mantenimiento.
Triángulo esférico. La distancia a un satélite localiza al receptor en la superficie de una esfera centrada en el satélite y con un radio igual a esa distancia (1y2). La intersección entre las dos esferas de dos satélites determina una línea (3y4). Si la cruzamos con la esfera de un tercero solo quedan dos puntos de intersección (5). Uno estará sobre la superficie terrestre y el otro no, por lo que queda descartado (6).

TELÉFONO MÓVIL: CUESTIONES CELULARES
De ser pesadas maletas solo al alcance de los yuppies en los años ochenta, los móviles han pasado a ser pequeños objetos que caben en cualquier bolsillo.
Ya hay más teléfonos móviles que fijos, en muchos países de Europa hay más móviles que personas, y hoy en día en África es el continente con mayor crecimiento en telefonía móvil. En conjunto, sus usuarios son muchos más que los internautas: casi 3000 millones en todo el planeta.
En América, donde no son tan populares como en Europa y Asia, los móviles se llaman <<celulares>>. El nombre viene de la tecnología usada en estos aparatos, que en realidad son radioteléfonos muy sofisticados.
Los primeros teléfonos portátiles se instalaban en los coches y se comunicaban con un potente transmisor central que cubría un radio de hasta 70 Kilómetros alrededor de cada gran ciudad. Para poder hablar con la central los teléfonos debían emitir con mucha potencia, la suficiente como para recorrer esos 70 Kilómetros, de ahí, su tamaño y la necesidad de una gran batería.
Más antenas, menos radiaciones
Entonces llegó la estrategia celular: dividir la zona de cobertura en células mucho más pequeñas, en cuyo centro se instala una antena. Las células de la red de telefonía  están coordinadas de manera que la conexión  no se corta a pasar de una a otra y el móvil cambia solo de canal.
Por temor a posibles efectos dañinos de las ondas de telefonía móvil sobre la salud, mucha gente rechaza la instalación de antenas cerca de su casa.
Aunque resulte paradójico, si queremos reducir la potencia de emisión de los móviles, se tiene que hacer lo contrario,: instalar muchas antenas, para que siempre tengamos una cerca.
De esta manera, siguiendo esa estrategia celular que requería menos potencia, los teléfonos portátiles pudieron evolucionar hasta convertirse en móviles.
¿Ondas bajo sospecha?
Hasta ahora no hay ninguna evidencia científica de que las radiaciones empleadas en la telefonía móvil pueden causar ninguna enfermedad.
Estas ondas no son muy diferentes a las de la radio. Tienen algo más de energía, se las considera microondas (aunque son menos intensas que la de los hornos) y están en una zona del espectro electromagnético muy por debajo de los rayos de la luz visible.
Por encima de la zona visible, los rayos ultravioleta de alta frecuencia, los rayos gamma y los rayos X pueden provocar problemas de salud, pues son tan energéticos que son capaces de romper moléculas como el ADN de las células de nuestro cuerpo, y desencadenar el cáncer.
Sin embargo, los microondas que originan los móviles son incapaces de romper enlaces entre átomos; por eso la ciencia actual no entiende cómo estas ondas podrían llegar a provocar un tumor.
De momento el único riesgo probado para la salud es usar los móviles mientras se conduce: esa distracción multiplica por cuatro la posibilidad de un accidente de tráfico. Por lo demás, los experimentos que sí relacionan el uso del móvil con el cáncer, la pérdida de memoria o el dolor de cabeza no han dado los mismo resultados al repetirse: no pueden darse por válidos.

COMUNICACIONES SEGURAS: CLAVE PÚBLICA Y PRIVACIDAD

Todo el alcance de un clic: compras, operaciones bancarias, trámites administrativos, intercambio de información o conversaciones en tiempo real.
Cada vez que realizamos una de estas operaciones enviamos al ciberespacio información privada. Y lo hacemos con seguridad gracias a la criptografía de clave pública, que entra en escena cuando nos conectamos a Internet, usamos un cajero automático o compramos un programa de televisión por pay per view.
Es un invento que está en nuestra rutina diaria, pero la mayoría de las veces no somos conscientes de ello.
Desde que hace dos mil años se emplease por vez primera la criptografía, su principal limitación había sido la distribución de la clave, la <<llave>> que permite al emisor sellar el mensaje (cifrarlo) y al receptor abrirlo (descifrarlo).
Esto exige que ambas partes busquen un sistema muy seguro para realizar el intercambio. De ahí la típica escena de película con un individuo trajeado y esposado a un maletín, que pasó a al historia con el descubrimiento de la criptografía de clave pública en 1976.
Con el sistema de clave pública ya no es necesario intercambiar la clave secreta. Cada usuario tiene una clave pública (que es como un candado abierto) y otra privada  (la llave de ese candado).
Si Alicia quiere mandarle una carta confidencial a Benito, primero le pide a él que le mande un candado abierto. Cuando Alicia lo recibe, lo usa para cerrar una caja que lleva dentro la carta y le manda la caja por correo a Benito. Él es el único que puede abrirla, pues es el único que puede abrirla, pues es el único que tiene la llave (clave privada) que abre su candado (clave pública).
Ciencias de lo oculto
En sentido estricto la criptografía es la ciencia que se encarga de la ocultación su nombre deriva del griego Kryptos, que significa <<oculto>> del significado de un mensaje para mantenerlo en secreto. Este procedimiento se conoce como codificación y se realiza aplicando un protocolo especifico (un sistema de codificación) acordado de antemano por el emisor y destinatario del mensaje y que solo ambos deben conocer.

Proteger el mensaje como ente físico es tarea de otra ciencia secreta: la esteganografía.
Comercio electrónico y protección de datos
Aunque Internet no tenga dueño, el ciberespacio no puede ser una ciudad sin ley. En España hay dos normas que regulan los derechos y deberes de los internautas:
  • Ley de Servicios de la Sociedad de la Información (LSSI), de 2002, que se aplica al comercio electrónico, la publicidad y cualquier servicio por Internet que dé beneficios económicos: www.Issi.es
  • Ley Orgánica de Protección de Datos de Carácter Personal (LOPD), de 1999, que se aplica a las empresas y entidades públicas que dispongan de datos personales de los ciudadanos. La Agencia Española de Protección de Datos vela por su cumplimiento: www.agpd.es/index.php. En su web hay una sección de preguntas frecuentes y una revista de prensa con noticias sobre protección de datos.


Si pasamos de la analogía postal a Internet, una de las aplicaciones de la criptografía de clave pública es el cifrado de datos para ocultar información privada. Otra es revelar la identidad del emisor de un mensaje. Esto se consigue con las firmas digitales que se almacenan en el nuevo DNI electrónico: quien manda un documento con una firma hecha con su clave privada se asegura de que cualquier destinatario que conozca su clave pública pueda comprobar que el documento es auténtico, que la firma no ha sido falsificada.
Direcciones seguras

Las direcciones que empiezan con https y un icono con un candado indican de una web usa un protocolo criptográfico de cifrado de datos que permite comunicaciones seguras.
Nunca envíes datos confidenciales (por ejemplo, el número del DNI o tarjeta de crédito) si no ves unas señales de seguridad.

LA VIDA DIGITAL
Internet, navegador, web, google, blog, Wikipedia, ordenadores, MP3, P2P, satélite, GPS, teléfono móvil y comunicaciones seguras. Una docena de inventos que, entre otros, han cambiado nuestras vidas: cómo nos comunicamos, cómo nos relacionamos, cómo viajamos, cómo estudiamos, cómo trabajamos, y a qué dedicamos el tiempo libre.
Algunos expertos vaticinaban otros cambios: en pocos años los libros y periódicos electrónicos conseguirían desplazar a sus precursores de papel. La prensa escrita no desaparece y lo que ha empezado a restarle ingresos a su negocio no son los medios de comunicación digitales sino un fenómeno que nadie había previsto: las páginas web de anuncios por palabras como craigslist.org.
La versión digital/virtual de productos o servicios que ya existían no siempre tiene más éxito, y en muchos casos conviven ambas versiones.
Bricomanía digital
En los foros especializados de la Red los usuarios comparten sus conocimientos y modifican (<<hackean>>) los dispositivos electrónicos para añadirles funciones que los fabricantes descartaron, o para liberar restricciones de uso. Un ejemplo es hacer que un reproductor de DVD pueda leer discos en cualquier zona. Entre estos <<manitas>>, llamados hackers, solo algunos utilizan su dominio de las nuevas tecnologías con fines maliciosos; son los crackers.
El mercadillo global
Otro gran hito del comercio electrónico ha sido el sitio de subastas online eBay.
Ahora los compradores pueden convertirse también en vendedores y tienen acceso desde casa a objetos que proceden en cualquier lugar del mundo: desde artesanía de una remota zona de África hasta aparatos electrónicos que solo se venden en Asia, pasando por ropa de segunda mano. Y todo ello sin que los intermediarios se lleven un gran porcentaje del precio. Es el P2P, pero aplicado al comercio.
El mercado de segunda mano en Internet da salida a ordenadores, teléfonos móviles y otros dispositivos que, al estar en constante evolución, pronto se quedan obsoletos y de otra forma terminarían por añadirse a la basura electrónica.

EJERCICIO PÁGINA 252
Kit de navegación privada, cómoda y segura.
Una cookie es un trocito de información que se almacena en el disco duro de tu ordenador cada vez que accedes a determinadas páginas web.
Así, por tus visitas anteriores, esas webs pueden identificarte y mostrarte los contenidos personalizados o los que más interesan. Pero también pueden recoger datos sobre tus hábitos de navegación que preferirías que fueran privado. Si quieres dejar menos huellas en Internet, puedes desactivar las cookies es el menú de preferencias de tu navegador.
Al navegar también es posible que surjan problemas de seguridad (compras on line en webs inseguras, prácticas de phishing que usan cebos para que los usuarios revelen sus datos personales...)y de comodidad (ventanas emergentes, llamadas pop-ups), con anuncios indeseados).
  •  Investiga esos problemas y elabora una presentación (Power Point o similar) con consejos para poder navegar de forma privada, cómoda y segura).

Cuando un usuario introduce su nombre de usuario y contraseña se almacena una cookie para que no tenga que estar introduciéndola para cada página del servidor. Sin embargo una cookie ni identifica a una persona, sino a una combinación de computador navegador, usuario. Conseguir la información sobre los hábitos de navegación de usuario e intentos de spyware, por parte de agencias de publicidad. Esto puede causar problemas de privacidad y es una de las razones por las que los cookie tienen sus detractores.

EJERCICIO PÁGINA 255
Apadrina un científico


Escoge entre las siguientes una red de ciencia distribuidas para unirte a su causa:

  • SETI@home: buscar vida extraterrestre.
  • Folding@home: estudiar el plegamiento de proteínas para curar enfermedades.
  • distributed.net: romper algoritmos criptográficos para comprobar su seguridad.
a) Instala y prueba el salvapantallas correspondiente.
Folding@home
b) Explica en no más de cinco pasos cómo funciona esa red, es decir, el proceso que tiene lugar en tu ordenador  y en los servidores centrales para repartir y procesar todo ese trabajo.
 Folding@home es un proyecto de computación distribuida, que expuesto de forma muy sencilla, estudia como se pliegan las proteínas (correcta o incorrectamente). El plegamiento de las proteínas se explica con más detalle en la sección de Ciencia.
¿Qué ha conseguido el proyecto hasta ahora?
Hemos conseguido simular el plegamiento de varias proteínas en el rango de 5 a 10 microsegundos, validando experimentalmente nuestra cinética del plegamiento. Ha sido un avance fundamental sobre los trabajos anteriores. Los artículos científicos detallando nuestros resultados se encuentran en las sección de Resultados. Ahora vamos a por otras importantes proteínas que se utilizan en los estudios de la biología estructural del plegamiento así como a por las proteínas que tienen que ver con enfermedades. Hay muchas revistas arbitradas y de renombre (Science, Nature, Structural Biology, PNAS, JMB, etc.) que han publicado los resultados de Folding@home. Hasta ahora, Folding@home ha publicado más artículos que todos los demás proyectos de computación distribuida juntos.
 ¿Cuáles son los requisitos mínimos de sistema?
Todos los ordenadores pueden contribuir a Folding@home. Sin embargo, si el ordenador es demasiado lento (por ejemplo se compró antes de los últimos 3 ó 4 años), el ordenador podría no ser lo suficientemente rápido para cumplir los tiempos límites de las unidades de trabajo normales. Un Pentium 3 a 450 MHz o un ordenador equivalente más moderno (con SSE) puede completar unidades de trabajo antes de que expiren.  


Debate sobre los derechos del autor

El copyright nació en el siglo XVIII para evitar la copia indiscriminada de obras literarias, artísticas y científicas con las imprentas.La aparición del internet, una red que ha sido creada para compartir información, ha impulsado nuevos tipos de licencias, por ejemplo, Creative Commons, cuya página web es es.creativecommons.org/
  • Investiga sobre las ventajas del copyright y defiéndelo ante un compañero que haya hecho lo mismo con Creative Commons. ¿Qué opina el resto de la clase?
https://es.wikipedia.org/wiki/Derecho_de_autor
El derecho de autor (copyright) es un conjunto de normas y principios que regulan los derechos morales y patrimoniales que la ley concede a los autores  por el solo hecho de la creación de una obra literaria, artística, científica o didáctica, esté publicada o inédita. Por ejemplo, en el derecho europeo, 70 años desde la muerte del autor…... Dicha obra entonces puede ser utilizada en forma libre, respetando los derechos morales.
A mí me parece bien , ya que han realizado una obra y tienen derecho a explotarla y que nadie la copie, creo que todos estarán más o menos de acuerdo.

Encuesta sobre el pirateo


La noticia de que las copias ilegales de Spiderman 3 circulaban por las calles de Beijing antes del estreno oficial de la película en mayo de 2007, puso de manifiesto la efectividad de las redes de pirateo.
El porcentaje de software ilegal a nivel mundial ha crecido en los últimos años hasta situarse en el 35% en 2006. En España esa cifra es aún mayor, un 46%.

  • Realiza una encuesta entre los compañeros de clase y descubre cuáles son vuestros porcentajes.

Casi todos están de acuerdo con el pirateo en cierto modo, debido al elevado precio de los discos y películas originales. Pero entre el 15% y 20% del resto no están de acuerdo por ello de lo del derecho del autor y de que tienen que vivir de algo todos los artistas.

COMENTARIO PELÍCULA UNA ODISEA DEL ESPACIO


La película es de ciencia-ficción. Narra los diversos períodos de la historia de la humanidad, no sólo del pasado, sino también del futuro. Hace millones de años, antes de la aparición del "homo sapiens", unos primates descubren un monolito que los conduce a un estadio de inteligencia superior, es decir, es el motivo del avance del hombre. Millones de años después, otro monolito, enterrado en una luna, despierta el interés de los científicos, avances tecnológicos.Por último, durante una misión de la NASA, HAL 9000, una máquina dotada de inteligencia artificial, se encarga de controlar todos los sistemas de una nave espacial tripulada.

El problema para mi de la película es que la película es muy lenta.