sábado, 8 de junio de 2013

TEMA 6 "LA ALDEA GLOBAL"

LA ALDEA GLOBAL

INFORMACIÓN Y TECNOLOGÍA

En Septiembre de 2007, los monjes budistas de Birmania abandonaron sus tranquilos monasterios para encabezar manifestaciones pacíficas en defensa de la democracia.
Con los medios de comunicación controlados por una junta militar, en el poder desde 1962, Internet fue la clave para dar a conocer al mundo la situación en el país del sudeste asiático. Las protestas fueron reprimidas con violencias: llegaron a morir decenas de personas.
Las imágenes de las manifestaciones burlaron la censura y se enviaron por correo electrónico, los testimonios de la represión se difundieron en los blogs y en YouTube se pudo ver la opulenta vida de los generales birmanos en uno de los países con mayor pobreza y corrupción.
Los militares respondieron cortando el acceso a la Red durante una semana, pero no pudieron impedir que las noticias corrieran ya por el ciberespacio como la pólvora.
Miles de manifestaciones, coordinados en ciudades de los cinco continentes, exigían a sus gobiernos una reacción.
Los activistas se habían auto organizado en Internet por medio de Facebook, una red social de contactos que fue creada originalmente para hacer amigos en la universidad.
A un canadiense de 19 años, que había viajado ese verano por Birmania, se le ocurrió usar ese mismo sistema para iniciar una campaña política. En pocos días tenía a 300.000 personas apoyándole: era la envidia de cualquier ONG.
Ante esta movilización global, algunos líderes de las principales potencias respondieron prometiendo sanciones contra la dictadura Birmania.
Internet ya no es solo un sitio donde acceder gratis a información de todo tipo y descubrir qué está pasando en cualquier país, sino que permite a cualquier ciudadano intervenir en la política internacional.
Una misma persona puede redactar y también corregir la mayor enciclopedia del mundo, comprar libros y antigüedades en una subasta internacional, colaborar en la investigación de una cura para el sida, difundir sus propias noticias por todo el planeta, descubrir y promocionar nuevos talentos musicales o, simplemente, divertirse o compartir sus vivencias con la familia y los amigos aunque estén lejos. Todas esas cosas, inaccesibles en solitario, son posibles cuando los individuos se conectan entre sí con sus ordenadores, consolas y dispositivos móviles.
Esas multitudes interconectadas comparten tanto información como recursos y forman redes y comunidades. Todo ello gracias a unas armas de colaboración masiva: las tecnologías de la información.

INTERNET: NACIDA PARA COMPARTIR

Es difícil imaginarse el mundo sin Internet, pero ¿puede estropearse la Red?
http://definicion.de/red/
La Red, conjunto de computadoras con conexión a internet.
En 2002 sufrimos varios apagones regionales en España durante unas horas y en Estados Unidos falló por un día uno de los mayores proveedores mundiales, WorldCom. Ese día muchos mensajes de correo electrónico llegaron con retraso, algunos incluso se perdieron y se ralentizó el tráfico por todo el ciberespacio.
Sin embargo, Internet fue diseñada a prueba de fallos: no existe una central en la que se pueda producir una avería que a su vez provoque un apagón mundial. Es como una red de pesca en la que los ordenadores son los nudos: la información logrará encontrar un camino entre dos nudos, aunque haya agujeros en medio. Una red así parece invulnerable. Y en plena Guerra Fría, eso entusiasmó a los jefes militares de Estados Unidos que pusieron en marcha Arpanet, la procesadora de Internet.
Se ha dicho que el proyecto nació como un sistema militar residente en una eventual ataque nuclear de los soviéticos.
http://www.definicion.org/arpanet
Pero, en realidad, el Departamento de Defensa estadounidense financió Arpanet para que las universidades de ese país pudieran compartir sus ordenadores, conectándolos entre sí aunque fueran de distintos fabricantes y funcionaran de manera muy diferente. Así, en 1969 la comunidad científica de Estados Unidos empezó a compartir datos, novedades sobre sus investigaciones y mensajes personales.
Desde 1972 están circulando las arrobas del correo electrónico, @, que separan el nombre del usuario y la dirección del ordenador servidor en el que se aloja su buzón, de modo similar a como se usa un apartado de correos universales.

Ciberespacio

Ciberespacio suele usarse como sinónimo de Internet, pero no se refiere a la red de comunicaciones en sí, sino al mundo virtual en el que existen las páginas web. Así pues, más que un complejo objeto como el que muestra la fotografía es una metáfora mejor representada en la ilusión visual: el triángulo blanco que no existe en ninguna parte pero une entre sí ordenadores de todo el planeta.
http://www.wordreference.com/definicion/ciberespacio
Aunque el ciberespacio no es algo material, se han realizado cálculos científicos para estimar su peso: unos 50 gramos, según un método que hace un recuento del número de electrones necesarios para mantener un funcionamiento la red global y los multiplica por su masa (9,1 x 10 kg)

Paquetes de información
Ahí se acaba cualquier parecido con el correo tradicional. En el buzón virtual del remitente el mensaje se divide en partes que viajan por rutas diferentes, por cualquiera de los caminos posibles de esa red global, hasta llegar al buzón del destinatario. Es aquí donde se reúnen los trozos del mensaje y se recompone la postal electrónica.
En Internet la información siempre viaja troceada en pequeños paquetes de un máximo de 1500 bytes (que equivalen a 250 palabras de texto, una décima de segundo de música en MP3).
De esta manera, cuando se produce un mínimo corte o interferencia se reenvían de forma automática solo los paquetes extraviados y no hay que repetir la transmisión paquetes extraviados y no hay que repetir la transmisión entera, como sucede al mandar una página de fax por línea telefónica.
En su ruta, cada paquete puede pasar por cientos de ordenadores intermediarios, del mismo país o de otros; y funcionan con Windows, con Mac OS, con Linux o bien con cualquier otro sistema operativo.
En la Red todos hablan el mismo idioma, una especie de esperanto informático: el TCP/IP.
El TCP/IP es el conjunto d protocolos que comenzó a usarse en 1983 para dirigir el tráfico de los paquetes de información por Arpanet y garantizar que todos llegan a su destino.
Así nació la actual Internet. Redes de uno y otro país, redes públicas y privadas, redes de alta velocidad con cables de fibra óptica, redes más modestas por vía telefónica, redes inalámbricas...., todas se sumaron a la red original.
La aportación europea fueron las páginas web, creadas en 1991, que popularizaron la Red. Más de 1300 millones de personas (uno de cada cinco habitantes del planeta) estaban conectados en 2008. Y cada día son más.
El reto no solo es aumentar ese número, sino también el porcentaje de conexiones de banda ancha (alta velocidad y acceso permanente) que es necesario para realizar el envío de archivos muy pesados y para disponer de servicios como la videoconferencia.

SÍMBOLOS Y DIRECCIONES DE INTERNET
La historia de la @


Además de en las direcciones de correo electrónico, esa <@> con melena peinada hacia atrás se usa como símbolo de modernidad. Sin embargo, la arroba ya navegaba hace cinco siglos en los barcos de los mercaderes venecianos. En una carta mercantil de 1536 aparece como abreviatura del ánfora, una  antigua unidad de peso y capacidad usada en el comercio por el Mediterráneo.
Tanto griegos como romanos usaban el ánfora, un cántaro alargado de cerámica, con una capacidad de 26,2 Litros.
Los comerciantes anglosajones la utilizaban desde el siglo XIX con el significado de <al precio de>. En sus libros de contabilidad anotaban cosas como <2 sillas @ 4 dólares>. Por eso el símbolo ya estaba en los teclados de las máquinas de escribir antes de que existiese internet.
La arroba saltó a la fama por casualidad en 1972. El ingeniero estadounidense Ray Tomlison diseñaba un sistema de correo electrónico para Arpanet y necesitaba un separador dentro de las direcciones. Tenía que ser un carácter que nadie usara en su nombre de usuario. Letras y números quedaban descartados. Tomlison bajó los ojos hacia el teclado y eligió ese como podía haber elegido otro.
En inglés @ se lee at, así, ray@gmail.com significa <ray en gmail.com>

Direcciones IP, la matrícula de los ordenadores
En internet cada ordenador se identifica por una dirección IP (Internet Protocol), del tipo 188.40.234.3. Esos cuatro número separados por puntos pueden tener valores desde el 0 hasta el 255. Con este sistema IPv4 los posibles direcciones solo 256: casi 4300 millones, ni siquiera una por persona. Los creadores de Internet no imaginaron que todo el mundo querría conectarse.
El actual sistema se agotará, como ocurre con el de las matrículas de los coches. Hoy se trabaja en la versión 6 del protocolo IP, con 3,4 x 10 posibles direcciones del tipo 2001: 0db8:85a3:1319:8a2e:0370:7334. Eso da unas 5000 por cada mm de superficie terrestre. Parece más que suficiente, incluso para un futuro en el que cada ordenador, teléfono móvil, iPod y coche estén conectados a Internet y tengan su propia dirección. Sin embargo, la transición al IPv6 es un reto tecnológico aún por resolver.
Cada vez que te conectas a Internet, lo habitual es que tu proveedor te asigne una dirección IP distinta, que además puede cambiar en pocas horas. Esta dirección de IP es una IP dinámica. Para tener una IP fija hay que pagar algo más.

DNS, navegamos como un intérprete
Los ordenadores se comunican en Internet mediante su direcciones IP, pero las personas necesitamos unas direcciones más fáciles de recordar que esas secuencias de números.
Los servidores de nombres de dominio (DNS) hacen de intérpretes entre usuarios y ordenadores.
Cuando escribimos una dirección, por ejemplo la del Ministerio de Educación y Ciencia, www.mec.es, el DNS la traduce a la dirección IP del servidor donde está alojada la página web que queremos visitar.
¿Cuántas IP te sabes de memoria?
Ninguna IP.
¿Cuántos número de teléfonos?
Número de teléfonos me se 8 aproximadamente.

CONEXIONES Y VELOCIDAD DE ACCESO A INTERNET

La cables de fibra óptica han adelantado a los de cobre en las autopistas de la información.
Formados por cientos de finísimas hebras de vidrio o plástico, estos claves permiten enviar muchos datos a gran velocidad. La información viaja a través de ellos en haces de luz que rebotan en las paredes de la fibra: gracias a la reflexión total interna de este material, la luz recorre grandes distancias sin interferencias electromagnéticas.
Pero las fibras son muy frágiles y es bastante difícil empalmar los cables.
Por este motivo, aunque es esqueleto de Internet sea de fibra óptica, a los hogares la conexión llega por otras vías.

Tipos de conexiones
Línea telefónica. Está pensaba para transmitir información analógica (voz), por eso es necesario utilizar un módem (modulador-demodulador), que convierte la información digital en pitidos de dos tonos (ceros y unos).
Su velocidad máxima de descarga es de 56600 bps (bits por segundo).
Cable. Los proveedores de cable tienden redes de fibra óptica bajo las calles, pero a las casas la conexión llega por un cable coaxial de cobre, similar al de la antena de televisión, que se conecta al módem de cable.
Está tecnología solo llega a núcleos de población importantes.
Es la conexión más rápida: hasta 30 Mbps (megabits por segundo).
ADSL. Mediante la utilización de las líneas telefónicas de cobre es posible un acceso de banda ancha que además permite hablar por teléfono al mismo tiempo.
Se necesita un módem especial y adaptar la centralita telefónica.
La velocidad máxima oscila 8 Mbps y 24 Mbps.
La velocidad de la conexión ADSL disminuye al alejarse de la centralita, como puedes observar en el siguiente gráfico:
Satélite. Existen diferentes sistemas. Unos reciben la información por antena parabólica y la envían a través de una línea telefónica, pero lo ideal es un servicio bidireccional que envía y recibe directamente al satélite.
En España es la conexión más cara y su velocidad máxima es de 2Mbps.
Telefonía móvil. La tecnología de tercera generación (3G) ofrece conexión de banda ancha para los teléfonos móviles y también para los ordenadores, ya sea mediante un módem 3G o a través de un teléfono.
De momento la cobertura no llega a todo el país.
Velocidad máxima: 7,2 Mbps.

Wifi, compartir la conexión
Con independencia del tipo de conexión que se haya solicitado al proveedor de Internet, dentro de casa el módem o router que contiene tecnología Wifi crea una red que permite conectar varios ordenadores sin cables desde cualquier habitación.
Pero lo que los internautas demandan cada vez más es tener acceso inalámbrico en cualquier punto de la ciudad.
Existen ya muchos puntos de acceso Wifi (hotspots) en lugares públicos como bibliotecas, cafeterías, aeropuertos, hoteles, etc.., que pueden ser abiertos y gratuitos, de pago o restringidos a clientes.
Otra alternativa es unirse a una comunidad Wifi y compartir la conexión con otras personas. Así tendrás acceso gratuito cerca de la casa de cualquier miembro de tu comunidad.
Su comodidad ha hecho que las redes inalámbricas hayan proliferado tanto que ya se habla de contaminación Wifi.
Demasiados punto de acceso en su vecindario crean interferencias y saturan una banda de frecuencias (2,4 GHz) a la que también operan los hornos microondas y los móviles con Bluetooth.

NAVEGADOR WEB: MOMENTOS ESTELARES DE LA HISTORIA
Si en toda esta revolución tecnológica quisiéramos señalar <el día en que cambio el mundo>, propondríamos el 13 de Octubre de 1994, fecha en la que se lanzó la primera versión de Netscape, el primer navegador web al alcance del gran público.
Este programa fue la <aplicación bomba> que logró extender el uso de Internet y llegó a convertirla en un fenómeno de masas, pues liberó a la red de redes de su gueto académico y militar.
Las páginas web habían sido creadas en 1991 en el CERN, el prestigio laboratorio de física de partículas de Ginebra (Suiza).
El Programador Británico Tim Berners-Lee ideó un sistema sencillo con el fin de que científicos de todo el mundo pudieron compartir los resultados de sus investigaciones, publicándolos en unos documentos enlazados entre sí en una especie de telaraña mundial o, como é lo llamo en inglés, World Wide Web (www).
Su gran idea fue usar los enlaces de hipertexto para saltar de una página a otra, pero ellos solo se podía ver texto; había que cargar aparte las imágenes. Aquello, además de no ser muy intuitivo, solo funcionaba en costosas estaciones de trabajo que utilizaban sistema operativo UNIX.
Hipertexto es el texto que contiene elementos (conocidos como hipervínculos o enlaces) que permiten acceder a otra información.
Se empezaba a hablar de las autopistas de la información, pero con aquellos <viejos cacharros> apenas se circulaba por ellas.
Hasta que Marc Andreessen, estudiante del Centro Nacional de Aplicaciones de Supercomputación (NCSA) de Estados Unidos, lo vio claro: un navegador tenía que mostrar páginas con imágenes, sonidos y vídeos incrustados entre un texto con diferentes estilos y tipos de letra. Y para seguir los enlaces bastaría con un simple clic sobre una palabra subrayada.
Así surgió Mosaic en 1993, el primer navegador web con interfaz gráfica (con una barra para poder teclear las direcciones y los botones para avanzar retroceder y recargar páginas) disponible para Windows, Mac y UNIX.
Entre los pioneros de la web, algunos temían que las páginas multimedia que se veían con Mosaic atrajeran a multitud de usuarios que estos colgaran fotos de todo tipo, usaran molestos sonidos de fondo y distribuyeran videos de tan poco interés científico como los primeros pasos de sus hijos.
Aquellos visionarios acertaron de nuevo. Cuanta más gente probaba el navegador, más contenidos se creaban, y eso atraía a nuevos usuarios a la web (uno de los muchos servicios de Internet), que también usaban Mosaic. El número de sitios web comenzó a experimentar un crecimiento exponencial, se duplicaba cada tres meses.
Visto el éxito en el mundo científico, al acabar sus estudios, Marc Andreessen fue reclutado por un empresario de Silicon Valley donde fundaron Netscape, con el que la revolución llegó a los hogares a finales de 1994.
Aquel navegador era más fácil de usar y tenía mejoras importantes sobre Mosaic. Las páginas se visualizaban según se iban cargando, y se podían empezar a leer sin esperar con la pantalla en blanco hasta que se cargaran el texto y las imágenes. Esto podía llevar varios minutos con las primeras conexiones por módem. Además incluía un sistema criptográfico par poder realizar conexiones seguras por Internet.
Cualquier persona podía utilizar ya Internet. Así, millones de usuarios de todo el mundo se conectaron a la Red en 1995, y casi todos se asomaron al ciberespacio a través de una ventana de Netscape. Fue catalizador de una reacción en cadena que hizo realidad la idea de la aldea global.
Una década después casi nadie usa Netscape, pero sus sucesores siguen siendo el vehículo de un nuevo cambio: cualquiera que sepa manejar un navegador puede montar su diario personal o blog, o bien difundir imágenes y videos a todo el mundo, sin necesidad de programar en el lenguaje HTML de las páginas web.
Ahora los internautas tejen la web al mismo tiempo que navegan por ella.

Firefox, la reencarnación de Netscape
Firefox es hoy el navegador más avanzado en cuestiones de privacidad y seguridad.
Poco a poco ha ganado popularidad y ya es un símbolo de la cultura del software libre: es gratuito y cualquiera con conocimientos suficientes puede contribuir a mejorarlo porque su código está abierto y es público. Así, muchos programadores de todo el mundo ayudan con sus aportaciones a reforzar su seguridad.
El código de programación con el que está hecho Firefox está basado en el de Netscape, que, tras su enorme éxito inicial, fue barrido en pocos años por Internet Explorer hasta que desapareció. Por eso los creadores de Firefox quisieron llamarle Phoenix, como el pájaro mitológico que renace de sus cenizas. Pero la marca estaba registrada y el nombre definitivo es el animal en peligro de extinción.

Yahoo, los favoritos de todo el mundo
En 1994 dos estudiantes de la Universidad de Stanford (EEUU) publicaron una página con enlaces a sus sitios web favoritos: <<La guía de Jerry y David para la World Wide Web>>, que pronto cambiaron por un nombre con más gancho, Yahoo.
Fue el primer directorio de Internet y llegó a convertirse en la página de inicio de la mayoría de los internautas. Catalogaba las nuevas páginas en categorías y marcaba los mejores con un icono que representaba una gafas de sol.
Pero pronto esa tareas se convirtió en imposible. En 1997 se alcanzó el millón de sitios web: había empezado la era de los buscadores.
La manera inicial de navegar con directorios todavía es posible en http://es.dir.yahoo.com/

Un programa revolucionario
En la jerga informática se les conoce como Killer apps (aplicaciones asesinas). En Español, aplicaciones bomba: es el software que hace explotar una tecnología, de manera que desarrolla sus posibilidades y multiplica las ventas del hardware que lo soporta.
Si Netscape fue la aplicación bomba de Internet, otros programas convirtieron en grandes éxitos al PC, el Macintosh, y la Gameboy:
  • PC (1983). Las ventas del primer PC de IBM  fueron muy flojas hasta que salió al mercado una hoja de cálculo llamada Lotus 1-2-3, que lo convirtió en un best-seller en el mundo empresarial.
  • Macintosh (1985). Aldus PageMaker fue el primer programa de maquetación que mostraba las páginas tal cual en la pantalla (WYSIWYG, what you see is what you get). Este programa hizo que el Macintosh de Apple conquistara a los diseñadores gráficos.
  • Gameboy (1989). El juego de Tetris se hizo muy popular desde su lanzamiento en 1985, pero hizo un dúo imbatible son la Gameboy. Este juego venía incluido en la consola portátil de Nintendo, que sedujo tanto a los niños como a los adultos deseosos de jugar al Tetris en cualquier lugar.

GOOGLE: EL ALGORITMO QUE LO BUSCA TODO
En la vida real es el eslogan interno de Google y resume en tres palabras el código ético adoptando por los fundadores del principal buscador de Internet para evitar que se les fuera de las manos. Lo que empezó en un garaje de Silicon Valley, como tantas otras aventuras tecnológicas, es hoy de gigantescas empresa que gestiona más información, pública y privada, en todo el mundo.
La semilla de Google fue un proyecto de investigación de los estudiantes. En 1996, en plena eclosión de Internet, el número de webs se multiplicaba. Encontrar la información se convirtió en un serio problema. En los buscadores de la época los primeros resultados eran las páginas que más veces contenían el término buscado, que no siempre eran los que tenían buena información.
Larry Page y Sergey Brin, estudiantes de doctorado en la Universidad de Stanford (California, Estados Unidos), plantearon su hipótesis: una página es más importante cuanto más enlaces apunten hacia ella.
En la práctica, había que ir más allá, pues un enlace desde el New York Times es más valioso que desde una página personal cualquiera. Así que los primeros resultados de una búsqueda debían ser las páginas más enlazadas desde otras páginas relevantes. Los detalles de cómo Google determina eso están en un complejo algoritmo, una fórmula patentada con el nombre de PageBank que se estuvo cociendo durante casi dos años.
Cuando el algoritmo estuvo listo, Page y Brin trataron de vender su motor de búsqueda. No tenían demasiado interés en montar su propia empresa, pero los grandes portales de Internet tampoco tenían mucho interés en mejorar sus buscadores. Así que siguieron por su cuenta, con la ayuda de varios inversores que pusieron un millón de dólares, y de un amigo que les alquiló su garaje.
<<To Google>> aparece en los diccionarios de inglés como verbo que significa buscar en Internet, ya sea con ese o con otros, como Yahoo, MSN o Ask.com. El país más glooglero del mundo es España.

Silicon Valley es un estado de ánimo

Silicon Valley no aparece en Google Maps ni en ningún atlas. La meca de innovación tecnológica no es un área geográfica ni un distrito administrativo.
En la actualidad se llama Silicon Valley a una zona del norte de California situada entre las ciudades de San Francisco y San José, aunque no hay un consenso sobre sus límites.
El término de Silicon Valley, acuñado en 1971 por un periodista, se debe a la alta concentración de empresas informáticas(que usan chips  de silicio) en el norte del valle de Santa Clara.
Pero con el crecimiento de esa industria en la zona, impulsada desde la Universidad de Stanford, la localización geográfica ya no define Silicon Valley con tanta precisión como la actualidad de sus habitantes, emprendedora y abierta hacia las nuevas tecnologías.
Varias de sus grandes empresas fueron fundadas por estudiantes en un garaje, que servía al mismo tiempo de laboratorio y oficina:
  • Hewlett-Packard: Palo Alto (1938)
  • Apple: Los Altos (1976)
  • Google: Menlo Park (1998)
Engañar a Google
El <<google bombing>> es una trampa para que una página aparezca en los primeros lugares al buscar una palabra determinada. Teniendo en cuenta cómo funciona Google, ¿cómo crees que se puede hacer?
Está técnica empezó a usarse en reivindicaciones sociales y políticas, como ocurrió, por ejemplo, en el caso de la crisis del vertido del petróleo Prestige en 2002: http://google.dirson.com/prestige.php
También se usa para desacreditar a personas o promocionar productos. En 2007 los ingenieros de Google incorporaron un pequeño algoritmo para minimizar el efecto de estas bombas.

LOS NAVEGANTES TEJEN LA RED
Blog. El boca a boca del ciberespacio
Esta nueva posibilidad surgió a finales de los años noventa gracias al blog (abreviatura del weblog) o bitácora.
El blog es un tipo de página web en la que uno o varios autores escriben de forma periódica sobre temas de su interés y donde los lectores pueden dejar sus comentarios.
Así se generan conversaciones y debates de los que surgen comunidades de personas con interés afines, muchas de ellas con su propio blog.
Otra particularidad de los blogs son los enlaces. Los artículos, además de texto e imágenes, suelen contener enlaces a otras páginas que llaman la atención del autor. De esta manera da a conocer esas páginas que es posible que otros también las enlacen desde sus blogs.
Los blogs tienen el poder de difundir y hacer relevante una información, aparezca o no en los periódicos.

Wikipedia. La sabiduría de las multitudes
Todo el mundo es un experto en algo. Con esta idea nació en 2001 la Wikipedia, una enciclopedia que permite cualquier usuario pueda añadir y modificar sus contenidos desde su navegador web.
La Wikipedia tiene pocos trabajadores a tiempo completo, y en ella colaboran millones de voluntarios de todo el mundo que se auto organizan para controlar la calidad de sus contenidos.
En 2007 la Wikipedia se convirtió en la décima web más visitada. Es el lugar más habitual para empezara informarse sobre un tema, aunque nunca debería ser el único.

Web 2.0: el espectador es el protagonista
En 2006 la conocida revista Time te nombró a ti, internauta, persona del año.
Este hecho se debió a que 2006 fue el año en el que las nuevas webs, creadas o mejoradas gracias a la colaboración de los propios usuarios (las que forman la llamada Web 2.0), empezaron a superar en visitas a las webs tradicionales: Wikipedia superó a la Britannica, Blogger superó a la CNN, Google Maps superó a MapQuest.

ORDENADOR: PROBLEMAS COMPLEJOS, DECISIONES SIMPLES
Un ordenador hace mucho más que ordenar. Es una palabra prestada del francés ordinateur, que es la traducción del original inglés computer. Con ese nombre se designaba a los especialistas en hacer cálculos numéricos y en el siglo XIX comenzó a aplicarse a máquinas, que calculaban cada vez más rápido.
En el siglo XX, cuando los engranajes de las máquinas se sustituyeron por componentes electrónicos, se generalizó el uso de la palabra <<ordenador>>. Estos componentes tenían el inconveniente de que se construían para resolver un problema determinado y había que cambiarlos sí se querían usar para otro fin.
Hasta que en 1936 un estudiante inglés, Alan Turing, pensó en una computadora que lograría resolver todo tipo de problemas que pudiera traducirse en términos matemáticos y luego reducirse a una cadena de operaciones lógicas con números binarios en las que solo cabían dos decisiones: verdadero o falso. La idea era reducir todo (cifras, letras, imágenes, sonidos) a ristras de unos y ceros y usar una receta, un programa, para resolver los problemas en pasos muy simples.
Había nacido el ordenador digital, pero era una máquina imaginaria. Tras la Segunda Guerra Mundial, en la que ayudó a descifrar el código Enigma de los mensajes en clave de los nazis, Turing creó uno de los primeros ordenadores como los actuales, digital y también programable: podía usarse para muchas cosas con solo cambiar el programa.

Evolución permanente
La máquina de Turing prontó quedó obsoleta, como pasa ahora. Los ordenadores han seguido duplicando su potencia de cálculo cada año y medio, como predijo Gordon Moore en 1965.
Por muy rápido que sea ahora un PC, para usarlo todavía hay que esperar cerca de un minuto mientras arranca tras unas comprobaciones, empieza a copiar el sistema operativo (el programa imprescindible para funcionar) desde el disco dura hasta la memoria RAM. Cada vez que se enciende el ordenador hay que repetir el proceso, pues la memoria se borra al apagar y cada casilla de información o bit (que puede valer de 0 a 1) marca 0.
Turing solo llegó a ver los primeros cerebros electrónicos. Él creía que los ordenadores sí podrían llegar a pensar y, con el programa adecuado, hacer cosas como chatear sin que pudiéramos distinguir si nuestro interlocutor era una persona o un ordenador. Nadie ha conseguido crear todavía un programa que supere una prueba denominada test de turing.
Con 40 años Turing había abierto el campo de la Inteligencia Artificial, pero en la cumbre de su carrera científica fue condenado por mantener relaciones homosexuales. Para evitar la cárcel, aceptó someterse a un tratamiento hormonal. Dos años más tarde murió, tras dar el primer bocado a una manzana envenenada con cianuro. Mucho después, una marca de ordenadores adoptó como símbolo una manzana arco iris como homenaje.

EJERCICIO PÁGINA 236
Chatea con un ordenador
Un bot de charla (o chabot) es un programa que está diseñado para similar una conversación inteligente con humanos. Pero ninguno lo hace tan bien como para superar el test de turing.
  • Busca bots de charla en Internet, prueba diferentes modelos. A continuación describe sus tácticas para hacerse pasar por una persona y explica por qué nota que lo es.
Te puedes hacer pasar por alguien, te das cuenta si es así porque dice cosas sin sentidos o muy exageradas de sí mismo....sí no se hace pasar por otra persona, te habla de forma más natural espontanea con cosas habituales y comunes.

Software, hardware y firmware: trabajo en cadena.
El Software de los ordenadores es el manual de instrucciones que permite convertir un problema, una tarea, en una gran cantidad de operaciones matemáticas sencillas, que se calculan a gran velocidad.
Los programas y juegos están en el primer eslabón de esa cadena: convierten nuestras acciones y deseos en tareas aún muy complejas que realiza el sistema operativo. Por ejemplo, si pulsas el botón <<Nuevo documento>> de su procesador de textos, el programa le pide al sistema que abra una ventana y este le pasa la orden a sus bibliotecas de funciones.
Algunos programas necesitan funciones que no tiene el sistema (por ejemplo, la capacidad para ver películas en formato DivX) y se las añaden instalando más bibliotecas o unos módulos llamados plug-ins.
Las funciones del sistema o las añadidas convierten cada tarea en una larguísima serie de instrucciones que son especificas para el hardware: el microprocesador, la memoria RAM, el disco duro, la tarjeta gráfica, el grabador de DVD, etcétera.
El sistema operativo se relaciona con los dispositivos anteriores a través de otro software, los controladores.
Esta estructura encadenada hace que un programa hace que un programa pueda ejecutarse sin problemas en muchos ordenadores distintos, pero combatibles.
El software aparece como algo casi independiente del hardware. La cadena de instrucciones sigue dentro de los dispositivos (internos) y periféricos (accesorios) del ordenador. Cada uno de estos contiene un pequeño ordenador que controla sus motores y circuitos electrónicos mediante otro programa tan ligado a los componentes electrónicos que no se considera software, sino firmware.
Algunas prestaciones del periférico  se pueden mejorar si se cambia el firmware. Por ejemplo, al actualizar el firmware de un iPod podemos corregirle fallos de funcionamiento o enseñarle nuevas funciones, como leer los más recientes formatos de música o vídeo.

Una máquina para sustituir al doctor House
El televisivo doctor House es un ejemplo de cómo la intuición, la experiencia o bien una corazonada ayudan a los humanos a la hora de tomar decisiones complicadas.
Un ordenador no cuenta con este factor humano, pero en los hospitales ya comienzan a usarlos para decidir el mejor tratamiento para algunos paciente, ya que gracias a programas de minería de datos, que analizan múltiples variables y sus relaciones, sus relaciones son muy acertadas.

ALMACENAMIENTO DIGITAL DE LA INFORMACIÓN
Bits y bites, bocaditos de información
La forma más cómoda de llevar información es el llavero de memoria (pincho USB, lápiz de memoria o pen drive).
En su interior hay un chip, formado por multitud de celdas que funcionan como diminutos interruptores con dos posiciones: on y off, que equivalen a 0 y 1 en sistema binario. Así, cada casilla almacena bit (Binary digiT) de memoria.
Un bit es la cantidad mínima de información, pero es muy raro verlos en solitario.
En nuestros ordenadores, los bits están agrupados en octetos llamados bytes (1 byte=8bits=un bocadito, en inglés).
¿Por qué ocho? El caso es que con los 8 bits de un byte pueden representarse 256 valores: del 00000000 al 11111111 en sistema binario, que es lo mismo que decir del 0 al 255 en números decimales.
Y con estos 256 caracteres diferentes, los occidentales tenemos más que suficiente para escribir cualquier cosa.
El código ASCII se usa para almacenar documentos de texto en la memoria y en los discos.
El código ASCII traduce en un solo carácter (letra, número, símbolo) cada uno de los 256 posibles valores binarios de un byte.

Imagen digital, el puntillismo informática
Los ordenadores, teléfonos móviles, navegadores, GPS, iPod, etc., son artistas del puntillismo. En sus pantallas, una imagen es un cuadro de diminutos puntos llamados píxeles.
El realismo de la imagen depende de la cantidad de información usada para colorear cada píxel.
Lo mínimo es 1 bit por píxel: dos colores, blanco y negro. Pero lo que tradicionalmente llamamos imagen en blanco y negro es en realidad una escala de grises.
Con 1 byte podemos representar 256 tonos diferentes para cada píxel y eso es suficiente para visualizar una fotografía, aunque se diga que entre el blanco y el negro hay una infinita gama de grises.
Si queremos ver la foto en color necesitamos 3 bytes por píxel.

Comprensión, quedarse con lo imprescindible
Para visualizar y mandar fotos por Internet se suelen guardar en JPG, un formato que comprime el tamaño del archivo entre 10 y 20 veces con una pérdida de calidad aceptable, usando un complejo algoritmo.
También se pueden perder datos al comprimir música en MP3 o películas en DivX: estos formatos descartan información redundante.
En cambio, para documentos de texto se usan formatos de comprensión sin pérdida de datos, como el ZIP, pues no interesa que al descomprimir falten letras o palabras.

COMPARTIR LA PROPIEDAD INTELECTUAL
MP3. Comprimido de música digital
En los años ochenta y noventa, en plena era del Walkman y el Discman (los primeros reproductores de música portátil) llevar miles de canciones en el bolsillo parecía un sueño imposible. Hoy se puede hacer gracias al MP3.
La industria musical ha cambiado por completo, pero no ha sido por decisión propia, como cuando se lanzó la cinta de caseta o el CD, sino por la revolución iniciada en Internet por los amantes de la música. Las tecnologías que han hecho posible el cambio son la digitalización y la compresión.
Digitalización
Digitalizar sonido o vídeo tiene una gran ventaja: cada copia es un clon idéntico al original, mientras que con cada copia sucesiva de una cinta analógica se pierde calidad.
Para guardar un texto en un ordenador basta con traducir letras a bytes el código ASCII.
No es tan fácil convertir el sonido (analógico) en una ristra digital de unos y ceros que un ordenador pueda almacenar y procesar. La señal analógica es una onda continua, que vemos como una curva. Al convertirla a digital lo que hacemos es tratar de reproducir esa curva con barras verticales que representan muestras de audio tomadas cada cierto tiempo.
Comprensión
Pero esos archivos son muy grandes . Así, en un CD de 700 megabytes caben 80 minutos de música. Descargar una sola canción con un módem de 56 Kbps llevaba horas. Había que reducir el tamaño del archivo sin perder calidad.
La solución fue el MP3, un formato comprimido de música digital que descarta los sonidos que el oído humano medio no puede recibir y los que no se oyen cuando suenan al mismo tiempo que otros.
El algoritmo de comprensión MP3 consigue que se reduzca 11 veces al tamaño del archivo y mantiene casi la misma calidad de sonido de un CD.
Además, cada archivo MP3 contiene unos bytes extra en los que se almacena información como el título de la canción, autor, año de grabación, etcétera.
P2P.Redes de intercambio de archivos
Con el invento del formato MP3 los internautas empezaron a compartir canciones. ¿Cómo poder encontrarías y descargarlas a buena velocidad?
En 1998 un estudiante universitario de 18 años creó Napster, un programa de intercambio de archivos basado en la tecnología P2P (peer-to-peer), cuyo significado es <<comunicación entre iguales>>.
En Internet los ordenadores se comunican por lo general a través de servidores centrales: para compartir un archivo, un usuario tendría que subirlo a un servidor y otro descargarlo de allí. Con el P2P pueden enviarse los archivos directamente.
Esto abrió la vía de compartir a escala global, incluso material protegido con copyright. También abrió una batalla legal y las discográficas consiguieron que los jueces cerraran Napster.
Pero surgieron nuevas redes P2P como eDonkey, BitTorrent o Ares, que cada vez hacen más fácil compartir música, software y vídeos.

EJERCICO PÁGINA 241
¿Legal o no legal?
El criterio sobre sí es legal compartir música y películas usando redes P2P varía de un país a otro: España <<Una juez dice en una sentencia que las descargas de música con P2P son legales si no tienen ánimo de lucro>> (01/11/2006).
www.20minutos.es/noticia/167999/0/internet/sentencia/p2p/
Francia: <<Sarkozy acuerda con los proveedores cortar internet a los piratas reincidentes>> (23/11/2007)
www.adn.es/tecnologia/20071123/NWS-2432-Sarkosy-reincidentes-proveedores-internet-acuerda.HTML
Casi todos están de acuerdo en que debe ser legal.

SATÉLITE: CIENCIA FICCIÓN HECHA REALIDAD
Mientras servía en la Royal Air Force británica durante la Segunda Guerra Mundial. Arthur C. Clarke empezó a vender sus historias de ciencia ficción a varias revistas.
Quizá por eso nadie se lo tomó muy en serio cuando, recién terminada la guerra, en octubre de 1945, publicó un artículo científico titulado <<Repetidores extraterrestres>>. En este artículo Clarke proponía el uso de satélites como repetidores para que las emisoras de televisión pudieran tener una cobertura mundial. Entonces solo existían los satélites naturales: las lunas que tienen todos los planetas del Sistema Solar menos Mercurio y Venus.
En 1957 los soviéticos pusieron en órbita el primer satélite artificial, el Sputnik I, inaugurando la carrera espacial entre Rusia y Estados Unidos.
Un satélite tiene que estar a una altura de 35786 Km para mantenerse en esa órbita geoestacionaria y girar con la misma velocidad con la que rota la Tierra.
El 20 de julio de 169, unos 500 millones de personas de todo el mundo siguieron en directo la retransmisión de los primeros pasos de un ser humano sobre la Luna, gracias a que pocos días antes se había completado el primer sistema global de comunicaciones por satélite.
Se cumplía el sueño de Arthur C. Clarke, que ya era un escritor famoso. Un año antes se había estrenado 2001: Una odisea en el espacio, basada en una novela que escribió a la vez que Stanley Kubrick la película.
En homenaje a su predicción sobre las telecomunicaciones  hoy se conoce como <<órbita Clarke>> la órbita geoestacionaria, en la que también circulan satélites meteorológicos, de comunicaciones y militares, pero no de localización por GPS.
La Tierra vista desde el espacio
El programa Google Earth combina imágenes de la Tierra obtenidas desde satélites con fotografías aéreas y con representaciones en 3D de datos de información geográfica que aparecen en diferentes capas: localidades, carreteras, lugares de interés turístico, edificios, fotos, etcétera.
Está última tecnología, de los Sistemas de Información Geográfica (GIS), representa bases de datos sobre mapas digitales cuyo análisis tiene múltiples aplicaciones: conocer la mejor ubicación de un colegio u hospital, decidir que trazados de carreteras son los de menor impacto ambiental, usarlo en marketing, investigaciones científicas y criminológicas, etcétera.
Un ejemplo de estos sistemas es: Sistema de Información Geográfica de Parcelas Agrícolas. Este sistema se puede encontrar en:
www.sigpac.mapa.es/fega/visor/

GPS: LA BRÚJULA DEL SIGLO XXI
El sistema de Posicionamiento Global (GPS) nació en 1995 como una red de satélites de apoyo a la navegación marítima que permite conocer en todo momento y en cualquier condición meteorológica las tres coordenadas (latitud, longitud y altitud) que localizan un punto sobre la Tierra.
A lo largo de la historia, la necesidad de conocer la posición de un barco en alta mar llevó a la mejora de los conocimientos astronómicos y al desarrollo de relojes precisos e instrumentos de negación como el astrolabio.
El GPS resolvió este problema de forma definitiva usando una versión sofisticada de la técnica de triangulación, empleada desde el siglo XVIII para la medida precisa de los terrenos, la confección de mapas y los estudios topográficos.
Funciones del GPS
En los navegadores para vehículos, en lugar de las tres coordenadas GPS, la localización aparece como un indicador sobre un mapa de carreteras.
En este mapa pueden aparecer además la situación de gasolineras, zonas de velocidad reducida, radares, etcétera. Estos puntos de interés (PDI) están grabados en una base de datos que se pueden actualizar por Internet.
Además, el navegador calcula con un programa la mejor ruta entre la posición actual y al destino.
¿Puedes localizarme a través del GPS?
Es imposible localizar a nadie solo a través de un navegador, ya que, solo recibe la señal. Los sistemas de localización de vehículos o mercancías añaden un módulo emisor que transmite las coordenadas calculadas por el GPS. Las coordenadas se envían mediante el sistema de transmisión de datos GPRS, cuyas siglas invitan a la confusión.
A prueba de atascos
Para evitar atascos y errores al calcular las rutas, además de actualizar los mapas con frecuencia, es necesaria que el navegador reciba información de las incidencias por el Canal de Mensajes de Tráfico (TMC), por alguna emisora de radio o por teléfono móvil. Algunos modelos permiten a los usuarios hacer sus propias modificaciones (corregir errores en mapas, añadir tramos cortados...) y compartirlas con el resto a través de Internet.
Un sistema que falla a propósito
Conocer la ubicación exacta tiene gran utilidad militar. Por eso, el Departamento de Defensa de Estados Unidos, que desarrolló y gestiona este sistema, introdujo un error controlado de unos pocos metros de la señal pública del GPS.
Esto no es un problema para los navegadores de los coches. Los satélites emiten además una señal codificada de mayor precisión que pueden descifrar los dispositivos autorizados.
Funcionamiento del GPS
Sistema de satélites. Discurren por seis órbitas con distinta inclinación sobre el plano ecuatorial, con cuatro satélites en cada órbita. Así cualquier punto de la Tierra tiene de forma permanente a la vista suficientes satélites para determinar su posición.
Receptor. El navegador recibe la posición de cada uno de los satélites a la vista y calcula la distancia que hay hasta ellos, midiendo el tiempo que tarda en llegarle la señal que emiten. Para ellos es imprescindible que los relojes de los satélites y del receptor estén perfectamente sincronizados. Las señales viajan a la velocidad de la luz, y un desfase de apenas una milésima de segundo representa un error de varios Kilómetros.
Estaciones terrestres. Controlan las órbitas de los satélites y se encarga de su mantenimiento.
Triángulo esférico. La distancia a un satélite localiza al receptor en la superficie de una esfera centrada en el satélite y con un radio igual a esa distancia (1y2). La intersección entre las dos esferas de dos satélites determina una línea (3y4). Si la cruzamos con la esfera de un tercero solo quedan dos puntos de intersección (5). Uno estará sobre la superficie terrestre y el otro no, por lo que queda descartado (6).

TELÉFONO MÓVIL: CUESTIONES CELULARES
De ser pesadas maletas solo al alcance de los yuppies en los años ochenta, los móviles han pasado a ser pequeños objetos que caben en cualquier bolsillo.
Ya hay más teléfonos móviles que fijos, en muchos países de Europa hay más móviles que personas, y hoy en día en África es el continente con mayor crecimiento en telefonía móvil. En conjunto, sus usuarios son muchos más que los internautas: casi 3000 millones en todo el planeta.
En América, donde no son tan populares como en Europa y Asia, los móviles se llaman <<celulares>>. El nombre viene de la tecnología usada en estos aparatos, que en realidad son radioteléfonos muy sofisticados.
Los primeros teléfonos portátiles se instalaban en los coches y se comunicaban con un potente transmisor central que cubría un radio de hasta 70 Kilómetros alrededor de cada gran ciudad. Para poder hablar con la central los teléfonos debían emitir con mucha potencia, la suficiente como para recorrer esos 70 Kilómetros, de ahí, su tamaño y la necesidad de una gran batería.
Más antenas, menos radiaciones
Entonces llegó la estrategia celular: dividir la zona de cobertura en células mucho más pequeñas, en cuyo centro se instala una antena. Las células de la red de telefonía  están coordinadas de manera que la conexión  no se corta a pasar de una a otra y el móvil cambia solo de canal.
Por temor a posibles efectos dañinos de las ondas de telefonía móvil sobre la salud, mucha gente rechaza la instalación de antenas cerca de su casa.
Aunque resulte paradójico, si queremos reducir la potencia de emisión de los móviles, se tiene que hacer lo contrario,: instalar muchas antenas, para que siempre tengamos una cerca.
De esta manera, siguiendo esa estrategia celular que requería menos potencia, los teléfonos portátiles pudieron evolucionar hasta convertirse en móviles.
¿Ondas bajo sospecha?
Hasta ahora no hay ninguna evidencia científica de que las radiaciones empleadas en la telefonía móvil pueden causar ninguna enfermedad.
Estas ondas no son muy diferentes a las de la radio. Tienen algo más de energía, se las considera microondas (aunque son menos intensas que la de los hornos) y están en una zona del espectro electromagnético muy por debajo de los rayos de la luz visible.
Por encima de la zona visible, los rayos ultravioleta de alta frecuencia, los rayos gamma y los rayos X pueden provocar problemas de salud, pues son tan energéticos que son capaces de romper moléculas como el ADN de las células de nuestro cuerpo, y desencadenar el cáncer.
Sin embargo, los microondas que originan los móviles son incapaces de romper enlaces entre átomos; por eso la ciencia actual no entiende cómo estas ondas podrían llegar a provocar un tumor.
De momento el único riesgo probado para la salud es usar los móviles mientras se conduce: esa distracción multiplica por cuatro la posibilidad de un accidente de tráfico. Por lo demás, los experimentos que sí relacionan el uso del móvil con el cáncer, la pérdida de memoria o el dolor de cabeza no han dado los mismo resultados al repetirse: no pueden darse por válidos.

COMUNICACIONES SEGURAS: CLAVE PÚBLICA Y PRIVACIDAD

Todo el alcance de un clic: compras, operaciones bancarias, trámites administrativos, intercambio de información o conversaciones en tiempo real.
Cada vez que realizamos una de estas operaciones enviamos al ciberespacio información privada. Y lo hacemos con seguridad gracias a la criptografía de clave pública, que entra en escena cuando nos conectamos a Internet, usamos un cajero automático o compramos un programa de televisión por pay per view.
Es un invento que está en nuestra rutina diaria, pero la mayoría de las veces no somos conscientes de ello.
Desde que hace dos mil años se emplease por vez primera la criptografía, su principal limitación había sido la distribución de la clave, la <<llave>> que permite al emisor sellar el mensaje (cifrarlo) y al receptor abrirlo (descifrarlo).
Esto exige que ambas partes busquen un sistema muy seguro para realizar el intercambio. De ahí la típica escena de película con un individuo trajeado y esposado a un maletín, que pasó a al historia con el descubrimiento de la criptografía de clave pública en 1976.
Con el sistema de clave pública ya no es necesario intercambiar la clave secreta. Cada usuario tiene una clave pública (que es como un candado abierto) y otra privada  (la llave de ese candado).
Si Alicia quiere mandarle una carta confidencial a Benito, primero le pide a él que le mande un candado abierto. Cuando Alicia lo recibe, lo usa para cerrar una caja que lleva dentro la carta y le manda la caja por correo a Benito. Él es el único que puede abrirla, pues es el único que puede abrirla, pues es el único que tiene la llave (clave privada) que abre su candado (clave pública).
Ciencias de lo oculto
En sentido estricto la criptografía es la ciencia que se encarga de la ocultación su nombre deriva del griego Kryptos, que significa <<oculto>> del significado de un mensaje para mantenerlo en secreto. Este procedimiento se conoce como codificación y se realiza aplicando un protocolo especifico (un sistema de codificación) acordado de antemano por el emisor y destinatario del mensaje y que solo ambos deben conocer.

Proteger el mensaje como ente físico es tarea de otra ciencia secreta: la esteganografía.
Comercio electrónico y protección de datos
Aunque Internet no tenga dueño, el ciberespacio no puede ser una ciudad sin ley. En España hay dos normas que regulan los derechos y deberes de los internautas:
  • Ley de Servicios de la Sociedad de la Información (LSSI), de 2002, que se aplica al comercio electrónico, la publicidad y cualquier servicio por Internet que dé beneficios económicos: www.Issi.es
  • Ley Orgánica de Protección de Datos de Carácter Personal (LOPD), de 1999, que se aplica a las empresas y entidades públicas que dispongan de datos personales de los ciudadanos. La Agencia Española de Protección de Datos vela por su cumplimiento: www.agpd.es/index.php. En su web hay una sección de preguntas frecuentes y una revista de prensa con noticias sobre protección de datos.


Si pasamos de la analogía postal a Internet, una de las aplicaciones de la criptografía de clave pública es el cifrado de datos para ocultar información privada. Otra es revelar la identidad del emisor de un mensaje. Esto se consigue con las firmas digitales que se almacenan en el nuevo DNI electrónico: quien manda un documento con una firma hecha con su clave privada se asegura de que cualquier destinatario que conozca su clave pública pueda comprobar que el documento es auténtico, que la firma no ha sido falsificada.
Direcciones seguras

Las direcciones que empiezan con https y un icono con un candado indican de una web usa un protocolo criptográfico de cifrado de datos que permite comunicaciones seguras.
Nunca envíes datos confidenciales (por ejemplo, el número del DNI o tarjeta de crédito) si no ves unas señales de seguridad.

LA VIDA DIGITAL
Internet, navegador, web, google, blog, Wikipedia, ordenadores, MP3, P2P, satélite, GPS, teléfono móvil y comunicaciones seguras. Una docena de inventos que, entre otros, han cambiado nuestras vidas: cómo nos comunicamos, cómo nos relacionamos, cómo viajamos, cómo estudiamos, cómo trabajamos, y a qué dedicamos el tiempo libre.
Algunos expertos vaticinaban otros cambios: en pocos años los libros y periódicos electrónicos conseguirían desplazar a sus precursores de papel. La prensa escrita no desaparece y lo que ha empezado a restarle ingresos a su negocio no son los medios de comunicación digitales sino un fenómeno que nadie había previsto: las páginas web de anuncios por palabras como craigslist.org.
La versión digital/virtual de productos o servicios que ya existían no siempre tiene más éxito, y en muchos casos conviven ambas versiones.
Bricomanía digital
En los foros especializados de la Red los usuarios comparten sus conocimientos y modifican (<<hackean>>) los dispositivos electrónicos para añadirles funciones que los fabricantes descartaron, o para liberar restricciones de uso. Un ejemplo es hacer que un reproductor de DVD pueda leer discos en cualquier zona. Entre estos <<manitas>>, llamados hackers, solo algunos utilizan su dominio de las nuevas tecnologías con fines maliciosos; son los crackers.
El mercadillo global
Otro gran hito del comercio electrónico ha sido el sitio de subastas online eBay.
Ahora los compradores pueden convertirse también en vendedores y tienen acceso desde casa a objetos que proceden en cualquier lugar del mundo: desde artesanía de una remota zona de África hasta aparatos electrónicos que solo se venden en Asia, pasando por ropa de segunda mano. Y todo ello sin que los intermediarios se lleven un gran porcentaje del precio. Es el P2P, pero aplicado al comercio.
El mercado de segunda mano en Internet da salida a ordenadores, teléfonos móviles y otros dispositivos que, al estar en constante evolución, pronto se quedan obsoletos y de otra forma terminarían por añadirse a la basura electrónica.

EJERCICIO PÁGINA 252
Kit de navegación privada, cómoda y segura.
Una cookie es un trocito de información que se almacena en el disco duro de tu ordenador cada vez que accedes a determinadas páginas web.
Así, por tus visitas anteriores, esas webs pueden identificarte y mostrarte los contenidos personalizados o los que más interesan. Pero también pueden recoger datos sobre tus hábitos de navegación que preferirías que fueran privado. Si quieres dejar menos huellas en Internet, puedes desactivar las cookies es el menú de preferencias de tu navegador.
Al navegar también es posible que surjan problemas de seguridad (compras on line en webs inseguras, prácticas de phishing que usan cebos para que los usuarios revelen sus datos personales...)y de comodidad (ventanas emergentes, llamadas pop-ups), con anuncios indeseados).
  •  Investiga esos problemas y elabora una presentación (Power Point o similar) con consejos para poder navegar de forma privada, cómoda y segura).

Cuando un usuario introduce su nombre de usuario y contraseña se almacena una cookie para que no tenga que estar introduciéndola para cada página del servidor. Sin embargo una cookie ni identifica a una persona, sino a una combinación de computador navegador, usuario. Conseguir la información sobre los hábitos de navegación de usuario e intentos de spyware, por parte de agencias de publicidad. Esto puede causar problemas de privacidad y es una de las razones por las que los cookie tienen sus detractores.

EJERCICIO PÁGINA 255
Apadrina un científico


Escoge entre las siguientes una red de ciencia distribuidas para unirte a su causa:

  • SETI@home: buscar vida extraterrestre.
  • Folding@home: estudiar el plegamiento de proteínas para curar enfermedades.
  • distributed.net: romper algoritmos criptográficos para comprobar su seguridad.
a) Instala y prueba el salvapantallas correspondiente.
Folding@home
b) Explica en no más de cinco pasos cómo funciona esa red, es decir, el proceso que tiene lugar en tu ordenador  y en los servidores centrales para repartir y procesar todo ese trabajo.
 Folding@home es un proyecto de computación distribuida, que expuesto de forma muy sencilla, estudia como se pliegan las proteínas (correcta o incorrectamente). El plegamiento de las proteínas se explica con más detalle en la sección de Ciencia.
¿Qué ha conseguido el proyecto hasta ahora?
Hemos conseguido simular el plegamiento de varias proteínas en el rango de 5 a 10 microsegundos, validando experimentalmente nuestra cinética del plegamiento. Ha sido un avance fundamental sobre los trabajos anteriores. Los artículos científicos detallando nuestros resultados se encuentran en las sección de Resultados. Ahora vamos a por otras importantes proteínas que se utilizan en los estudios de la biología estructural del plegamiento así como a por las proteínas que tienen que ver con enfermedades. Hay muchas revistas arbitradas y de renombre (Science, Nature, Structural Biology, PNAS, JMB, etc.) que han publicado los resultados de Folding@home. Hasta ahora, Folding@home ha publicado más artículos que todos los demás proyectos de computación distribuida juntos.
 ¿Cuáles son los requisitos mínimos de sistema?
Todos los ordenadores pueden contribuir a Folding@home. Sin embargo, si el ordenador es demasiado lento (por ejemplo se compró antes de los últimos 3 ó 4 años), el ordenador podría no ser lo suficientemente rápido para cumplir los tiempos límites de las unidades de trabajo normales. Un Pentium 3 a 450 MHz o un ordenador equivalente más moderno (con SSE) puede completar unidades de trabajo antes de que expiren.  


Debate sobre los derechos del autor

El copyright nació en el siglo XVIII para evitar la copia indiscriminada de obras literarias, artísticas y científicas con las imprentas.La aparición del internet, una red que ha sido creada para compartir información, ha impulsado nuevos tipos de licencias, por ejemplo, Creative Commons, cuya página web es es.creativecommons.org/
  • Investiga sobre las ventajas del copyright y defiéndelo ante un compañero que haya hecho lo mismo con Creative Commons. ¿Qué opina el resto de la clase?
https://es.wikipedia.org/wiki/Derecho_de_autor
El derecho de autor (copyright) es un conjunto de normas y principios que regulan los derechos morales y patrimoniales que la ley concede a los autores  por el solo hecho de la creación de una obra literaria, artística, científica o didáctica, esté publicada o inédita. Por ejemplo, en el derecho europeo, 70 años desde la muerte del autor…... Dicha obra entonces puede ser utilizada en forma libre, respetando los derechos morales.
A mí me parece bien , ya que han realizado una obra y tienen derecho a explotarla y que nadie la copie, creo que todos estarán más o menos de acuerdo.

Encuesta sobre el pirateo


La noticia de que las copias ilegales de Spiderman 3 circulaban por las calles de Beijing antes del estreno oficial de la película en mayo de 2007, puso de manifiesto la efectividad de las redes de pirateo.
El porcentaje de software ilegal a nivel mundial ha crecido en los últimos años hasta situarse en el 35% en 2006. En España esa cifra es aún mayor, un 46%.

  • Realiza una encuesta entre los compañeros de clase y descubre cuáles son vuestros porcentajes.

Casi todos están de acuerdo con el pirateo en cierto modo, debido al elevado precio de los discos y películas originales. Pero entre el 15% y 20% del resto no están de acuerdo por ello de lo del derecho del autor y de que tienen que vivir de algo todos los artistas.

COMENTARIO PELÍCULA UNA ODISEA DEL ESPACIO


La película es de ciencia-ficción. Narra los diversos períodos de la historia de la humanidad, no sólo del pasado, sino también del futuro. Hace millones de años, antes de la aparición del "homo sapiens", unos primates descubren un monolito que los conduce a un estadio de inteligencia superior, es decir, es el motivo del avance del hombre. Millones de años después, otro monolito, enterrado en una luna, despierta el interés de los científicos, avances tecnológicos.Por último, durante una misión de la NASA, HAL 9000, una máquina dotada de inteligencia artificial, se encarga de controlar todos los sistemas de una nave espacial tripulada.

El problema para mi de la película es que la película es muy lenta.



 

 

sábado, 25 de mayo de 2013

TEMA 5 UNA GESTIÓN SOSTENIBLE

UNA GESTÓN SOSTENIBLE
Desde el descubrimiento del fuego por nuestros antepasados de la especie  Homo erectus y debido al progreso tecnológico y al extraordinario aumento de la población humana, se han disparado las necesidades energéticas y materiales de la humanidad hasta el punto de no poder ser cubiertas por la naturaleza en la que habitamos. Urge una gestión sostenible de la naturaleza por parte de la humanidad.

El equilibrio sostenible entre la naturaleza y los seres humanos depende en gran medida de la explosión demográfica, pero ese es uno de los aspectos a tratar en este tema. Para empezar vamos, a tratar otros temas relacionados con lo que nos ocupa. El movimiento 15-M ha puesto sobre la mesa el tema de la economía sostenible, de la necesidad de cambiar el modelo económico como única forma de combatir el paro en nuestro país.

Representaciones gráficas
 
Las gráficas constituyen un instrumento para describir y reflejar los resultados de un experimento.
El procedimiento que se sigue para representar una gráfica en el siguiente:
1. En una tabla de datos se recogen las variaciones de una magnitud en función de otra. Así se obtienen parejas de datos que reciben el nombre de coordenadas de un punto.
2. Estas coordenadas se representan en un sistema de referencia cartesiano.

Los científicos saben que muchos fenómenos naturales se ajustan bastante bien a alguna función matemática que se puede representar como una gráfica. Esto les permite interpolar los valores que faltan dentro de un intervalo conocido (por ejemplo, la altura de una persona) y extrapolar lo que ocurrirá fuera del intervalo que han estudiado.
 
Para analizar e interpretar las relaciones de nuestra especie con el medio debemos ser capaces de construir  e interpretar representaciones gráficas que dado que se estudian y aplican en otras asignaturas, aquí no vamos a trabajar como se hacen pero ante la posibilidad de que esta habilidad sea evaluada en el examen, os propongo que realicéis los ejercicios de las páginas, 145 y siguiente para que rememoréis vuestros conocimientos al respecto.

Interpolar y extropolar
El día en que Carolina nació, su padre decidió que cada vez que cumpliese años mediría su altura con una cinta métrica y anotaría el resultado en una tarjeta. Cuando Carolina cumplio 17 años, la tarjeta estaba casi completa, solo faltaba el dato correspondiente a su noveno cumpleaños.
Tabla de Elementos:
O años-50 cm                                     10 años-139 cm
1 año- 75cm                                        11 años-145 cm                   
2 años-87 cm                                      12 años-151 cm
3 años-95 cm                                      13 años-156 cm
4 años-103 cm                                    14 años-160 cm
5 años-109 cm                                    15 años- 162 cm
6 años-115 cm                                    16 años-163
7 años-121 cm                                    17 años-163
8 años-127 cm                                    18 años-       cm
9 años        cm



A. ¿Cómo describirías este crecimiento?
Crecimiento progresivo y continuo.
B.¿En qué épocas creció Carolina más rápido y en cuáles más despacio?
Las épocas más rápidas desde que nació hasta los 13 años, y más despacio de los 13 años en adelante.
C.¿Podrías estimar cuánto media en su noveno cumpleaños?
Podría medir 6 cm más aproximadamente, es decir, 133 cm.
D. ¿Por qué crees que el padre dejó de medir su altura a los 17 años?
Porque ya no crecería más o muy poco.
E.¿Cómo crees que será está gráfica cuando Carolina tenga entre 60 y 90 años?
Pues seguira teniendo la misma altura o con la edad puede que haya disminuido un poco.

A veces el camino no es recto
Aunque muchos fenómenos que se dan en la naturaleza se ajustan bastante bien a una recta, otros presentan un aspecto completamente distinto.
En la siguiente tabla se muestra la temperatura media mensual (ºC) en el aeropuerto de Barajas (Madrid) en tres años consecutivos.


A. Haz una gráfica representando en el eje vertical la temperatura y en el horizontal los meses de enero desde enero de 2004 hasta diciembre de 2006. ¿A qué tipo de curva te recuerda?
Parecen montañas.
B. ¿Aprecias un comportamiento que permita extrapolar?
No, creo que tendríamos que necesitar más datos.
C. ¿Podrías predecir la temperatura media de enero de 2007?
Pienso que en 4,8ºC ó 5ºC.
D. ¿Cómo crees que serían estas curvas en el lugar donde vives?
Muy parecidas aunque la temperatura sería un poco más alta.
E. ¿Puedes encontrar los datos necesarios para dibujarlos?
Sí.

Gráfica de donde vivó.
http://www.tutiempo.net/clima/Jerez_de_la_Frontera_aeropuerto/12-2006/84510.htm

Una misma curva, distintos fenómenos
Razona si alguno de los siguientes fenómenos puede representarse con una gráfica como la que acabas de trazar en la actividad "A veces el camino no es recto".
1. Horas de sol de cada mes a lo largo de los años.
http://www.ine.es/jaxi/tabla.do?path=/t43/a012/a1998/l0/&file=t200111b.px&type=pcaxis
Sí, se puedes hacer una tabla obteniendo los datos correspondientes.

2. Cantidad de lluvia recogida al mes.
http://javiersevillano.es/f-Clima-Mensual.htm
Sí, se puede auque es dificil distinguir entre un año u otro, debido a que aumentan y bajan las precipitaciones bruscamente, para ello nos tenemos que fijar bien en los meses de la gráfica.

3. Horas de sueño de una persona a lo largo de los meses del año.
http://www.ninosfelicesyseguros.com/%C2%BFcuantas-horas-debe-dormir-un-nino-segun-la-edad/

Se podría hacer obteniendo los datos de cuantas horas al día a dormido dependiendo del estado de la persona, edad.

4. Altura de una planta a lo largo de tres años.
Se podría hacer, pero depende de cada planta, de su habitat...para eso tendríamos que buscar los datos e información correspondiente.

Curvas superpuestas
Otra forma de representar los datos de la tabla de la actividad "A veces el camino no es recto" es trazar sobre la misma gráfica tres curvas distintas, una para cada año.
a. Dibuja las gráficas situando los meses del año en el eje horizontal y la temperatura en el vertical. Para representar los puntos de cada año puedes utilizar signos distintos (cruces, circulitos, estrellas...)

b. ¿Observas alguna coincidencia en la evolución de las temperaturas cada año?
Ascienden y descienden en los mismos meses.

c. ¿A qué te recuerdan estas curvas?
Montañas, olas...

d. ¿Coinciden las temperaturas más bajas siempre en el mismo mes? ¿Y las más altas?
Si coinciden las temperaturas bajas y altas.

e. ¿En qué meses se dan las mayores y menores variaciones de temperatura entre los tres años?
Mayores variaciones en julio y agosto, menores en diciembre y enero.

f. ¿Podrías decir cuál fue el año más frio y el más caliente?
El año más frío fue el 2005 y el más caliente 2006.


Cien metros por segundo
Esta tabla muestra cómo se ha ido rebajando el récord mundial masculino de los cien metros lisos a lo largo de último siglo.
Año                                      Récord mundial....
1912                                      10,60
1921                                      10,40
1930                                      10,30
1936                                      10,20
1956                                      10,10
1960                                      10,00
1968                                      9,95
1983                                      9,93
1988                                      9,92
1991                                      9,90
1994                                      9,86
1996                                      9,84
1999                                      9,79
2002                                      9,78
2005                                      9,77
2006                                      9,76

a. Elabora una gráfica y comenta los resultados.

b. ¿Por qué crees que cada vez parece más fácil batir el récord?
Porque esta acostumbrado a entranar, por buenas zapatillas deportivas...

c. ¿Cuántos años tardaremos en recorrer los cien metros lisos en un segundo?
Con mucho entrenamiento, aunque creo que ni con eso es suficiente.

¿Una progresión imparable?

Según Malthus, el  crecimiento de la población humana  sigue una progresión geométrica (aquella en la que cada valor de la progresión es el resultado de multiplicar el valor anterior por una razón), mientras que el crecimiento de la producción de alimentos que nos sustentan, aumenta según una progresión aritmética (cada valor de la progresión es el resultado de sumar al valor anterior una razón) consiguientemente, pensaba Malthus, las condiciones de vida de la humanidad, deben ir a peor…… uf!, hasta ahora se ha equivocado en los países del primer mundo.
 

*Lee las “predicciones de Malthus” de la página 147 e investiga  cuáles han sido las causas de que aun no se hayan cumplido en los países ricos pero aun amenace a los países pobres.


Las predicciones de Malthus
Considerando aceptados mil postulados, afirmo que la capacidad de crecimiento de la población en infinitamente mayor que la capacidad de la Tierra para poder producir alimentos para el ser humano. La población, si no se encuentra obstáculos aumenta en progresión geométrica. Los alimentos tan solo aumentan en progresión aritmética. Basta con poseer las más elementales nociones de números para poder apreciar la inmensa diferencia a favor de la primera de estas dos fuerzas. No veo manera por la que el ser humano pueda eludir el peso de esta ley, que abarca y penetra toda la naturaleza animada. Ninguna pretendida igualdad, ninguna reglamentación agraria, por radical que sea, podrá eliminar, durante un siglo siquiera, la presión de esta ley, que aparece, pues, como decididamente opuesta a la posible existencia de una sociedad cuyos miembros puedan todos tener una vida de reposo, felicidad y relativa holganza y no sientan ansiedad ante la dificultad de proveerse de los medios de subsistencia que necesitan ellos y sus familias.

Thomas Robert MALTHUS
Primer ensayo sobre la población, 1798
Comentad en clase esta cita de Malthus. Razona si existe alguna variable que él no consideró y que pudo hacer que no se cumplieran sus predicciones.

No se cumplieron en cierta medida, en los países ricos debido a la capacidad de producir alimentos y pensamientos, también al aumento de población.
En los países pobres sí se ha cumplido debido a que no tienen recursos ni medios para subsistir.

Podríamos considerar el futuro de la humanidad como lo que ocurre cuando metemos un paramecio (microorganismo unicelular) en una botella con nutrientes que cuando se divide, a las seis horas da lugar a dos y estos, seis horas después, a cuatro, ocho, dieciseis …, seguiría una función exponencial  f(x) =  2 elevado a x

En una semana serían 268 millones de paramecios, esto no llega a ocurrir nunca por que antes se habrían acabado los nutrientes. Si fuera el caso de la humanidad ¿cuándo seríamos conscientes de que nos quedaremos sin alimento para todos? Por las características de las funciones exponenciales, aunque nos diésemos cuenta de esto cuando la botella (la naturaleza, el planeta) estuviese al 10 % de su capacidad, apenas dispondríamos de un día (de la semana de los paramecios)  para tomar las medidas correctoras necesarias…. ¿es una progresión imparable? ¿somos conscientes de cuanto tiempo nos queda hasta que la situación sea irreparable?

            *Realizar el ejercicio del crecimiento de la población humana de la página 146 (considerar que la tasa de crecimiento de una población es el porcentaje de aumento con respecto a la población anterior).

Crecimiento de la población
Con los datos de esta tabla, realiza un gráfico que exprese la variación de la población humana.
Año                          Millones de personas
1.d.c                                100 (estimados)
1600                                500
1810                               1000
1910                               2000
1940                               3000
1961                               4000
1986                               5000
2000                               6000


a. ¿Cuántos seres humanos había el año que tú naciste?
Aproximadamente 5600 personas.

b. ¿Cuál fue la tasa de crecimiento anual entre 1810 y 1910? ¿Y entre 1940 y 1960? ¿Y entre 1986 y 2006?
1810 y 1910: 1000 personas
1940 y 1960: 2000 personas
1986 y 2006: 10000 personas aproximadamente.

c. ¿Puede calcularse la población humana del año 2010 a partir de esos datos? ¿Y la de 2100?
Con estos datos no, supongo que con más datos sí.
 

 SISTEMAS LINEALES Y NO LINEALES

Cuando dos variables están relacionadas, pueden formar un sistema lineal en el que el resultado de un esfuerzo conjunto es igual a la suma  de los esfuerzos por separada (un albañil poniendo baldosas) y uno no lineal o caótico en el que la interacción de las partes hace que lo que haga una parte dependa de lo que hacen las demás (tres albañiles poniendo baldosas al mismo tiempo) A este último tipo pertenecen las relaciones dentro de la naturaleza y en nuestra relación con ella.

En los sistemas no lineales o caóticos, dado que las partes se influyen entre sí, resulta muy complicado realizar predicciones. Como en el clima, el aumento de la cantidad de CO2 atmosférico, aumenta el efecto invernadero y por tanto la temperatura, lo que a su vez provoca más evaporación del agua oceánica que provoca un mayor efecto invernadero pero las nubes reflejan parte de la luz que reciben por lo que baja la temperatura, favorece la formación de nubes que provocan precipitaciones de nieve que a su vez reflejan la luz con lo que…. Se entiende como tantos expertos en el cambio climático no se ponen de acuerdo en sus consecuencias.

El efecto invernadero no es el causante de todos nuestros males. El hecho de que la temperatura media permanezca constante en la tierra indica que tanta energía como recibimos del Sol es devuelta al espacio a lo largo del año. Éste equilibrio haría que la temperatura media fuese de -18º C, pero gracias al efecto invernadero natural que devuelve parte de la energía a la Tierra  la TM es de 15 º C lo que hace a la Tierra habitable (*véase imagen pág. 149)


La emisión de gases de efecto invernadero por las actividades humanas hace que el efecto invernadero natural se esté incrementando por la actividad humana y  que la Tierra no libere toda la energía recibida del Sol, lo que está provocando el aumento de la  temperatura media del planeta: Calentamiento global.

 

* Conocer las capas de la atmósfera y ciclo del agua de las páginas 150 y siguiente.

La atmósfera
Las capas principales de la Tierra son: troposfera, estratosfera e ionosfera.
Troposfera. Es la capa de la tierra que está en contacto con la superficie. Su espesor medio es de 12 Km. En ella ocurren los fenómenos meteorológicos y se concentran la mayoría de los gases que forman la atmósfera. Esta capa reúne las condiciones necesarias para que se desarrolle la vida en la Tierra.
Estratosfera. Esta capa se extiende desde la troposfera hasta una altura aproximada de 50 Km. Está formada por capas de gases. Aquí se encuentra la capa de ozono que protege a los seres vivos de la acción dañina de los rayos ultravioleta procedentes del Sol.
Ionosfera. Esta capa alcanza una altura de 400 Km. En ella apenas existen gases. En la ionosfera se reflejan las ondas de radio y televisión. Esto permite que al ser devueltas a la Tierra puedan recibirse en otros puntos de la superficie terrestre.

El ciclo del agua
El ciclo del agua es el conjunto de procesos mediante los que el agua circula de forma cíclica desde la atmósfera hasta la superficie terrestre y de nuevo a la atmósfera.
Los procesos que intervienen en el ciclo del agua son evaporación, transpiración, condensación y precipitación.
1. Evaporación. El sol evapora el agua de la Tierra y de los océanos y mares.
2. Transpiración. Las plantas absorben agua del suelo y, mediante la transpiración, la devuelve en forma de vapor a la atmósfera. De este modo contribuyen a la formación de nubes.
3. Condensación. El vapor de agua procedente de la evaporación y la transpiración, al ascender y enfriarse, se condensa y se originan las nubes.
4. Precipitación. Las precipitaciones hace que el agua regrese a la superficie terrestre en forma de lluvia, nieve o granizo.
5. Escorrentía. Parte del agua que procede de las precipitaciones se infiltra en el subsuelo a través de rocas permeables y forma las aguas subterráneas.
6. Otra parte del agua procedente de las precipitaciones fluye por la superficie terrestre y desemboca en los mares y océanos.


EL AIRE QUE RESPIRAMOS
*Conocer la composición del aire en Pag. 150.

 

Inspiramos O2 y espiramos CO2 por la respiración celular, el dióxido de carbono forma parte de la vida, pero las cantidades crecientes  que la actividad humana está depositando en la atmósfera y su efecto invernadero lo han convertido en un contaminante a combatir.

También inspiramos polvo, arena, polen, esporas, microorganismos y tóxicos procedentes del consumo de combustibles, óxidos  de S y N que mezclados con H2O de las nubes provocan la lluvia ácida con efectos devastadores sobre los bosques como se puede observar en la foto de la página 153.

El ozono, O3 que a una altura de 30 Km, en la Estratosfera, nos protege de los dañinos rayos ultravioletas del Sol cuando se produce en la Troposfera es un fuerte contaminante por su alto poder oxidante.

Recordar el agujero en la capa de ozono que años atrás tanto  preocupó al mundo por el incremento de los rayos UVA que llegaban hasta la superficie y el incremento de enfermedades relacionadas con ellos como el cáncer de piel. Era producido por las emisiones a la atmosfera de unos gases conocidos como CFC utilizados como propelentes en los esprais y como líquidos refrigerantes. La prohibición de su fabricación y uso zanjó  el problema radicalmente y actualmente la capa de ozono protectora se regenera rápidamente.  

 

AGUA

Actualmente, más que escasear el agua dulce, el problema está en su irregular distribución.

Un 97% es salado, pero su fitoplancton (la mayoría de las plantas terrestres) produce O2 y absorbe CO2 y además los océanos redistribuyen el calor por toda la Tierra, haciendo el clima menos extremo.

Del 3% de agua dulce, el 70% está en forma de hielo, es la utilizable por todos los seres vivos (+ humanos). El 80 % para la agricultura ¿Tiene sentido el regadío subsidiado, el riego por encharcamiento (como los romanos), aspersión,  o se hace imprescindible la extensión  del riego por goteo?

SUELO 

Todos los seres vivos y en especial las plantas, de las que todos dependemos, además de agua y gases, necesitan nutrientes, sales minerales, abonos naturales para desarrollarse.

 En los océanos estas sales están disueltos, en tierra están en el suelo, de donde los toman por la raíces, convirtiéndolos en materia orgánica que aprovechan las plantas de las que nos alimentamos los animales… sin un suelo fértil no pueden vivir las plantas ni los animales. También viven muchas especies (descomponedores esenciales)

La vegetación protege al suelo del viento, arroyos… por eso su peor enemigo es la deforestación para distintos fines de interés humano. La pérdida de suelo que acompaña a la destrucción de la cubierta vegetal conduce a la desertización, sin suelo no crece la vegetación.

También se contaminan los suelos por la agricultura, ganadería, industria, minería, residuos urbanos… pudiendo llegar los contaminantes a la cadena alimentaria (el caso “de los pepinos”)

Además, las ciudades están construidas en los mejores suelos y con abundante agua, su crecimiento,  el asfaltado provoca la pérdida de buen suelo  agrícola y la contaminación de las aguas superficiales y subterráneas.



LA DIVERSIDAD

Es la variedad de distintos seres vivos. Se calcula que hay entre 3 y 50. 106 de especies distintas. Se conocen dos millones. Hoy han desaparecido el 99% de las especies que han existido por cambios ambientales importantes (como las glaciaciones) o  cataclismos (dinosaurios).

Cada especie es una variedad genética aquilatada en cientos de millones de años de relación con la naturaleza y cada pérdida es irreparable ante futuras necesidades ambientales y humanas.

Se calcula que nunca han desaparecido tantas especies como en la actualidad (entre 103 y 105 veces más rápido que en cualquier época geológica anterior).

Las especies nos aportan alimentos (el 75% de los alimentos proceden de siete especies: patata, trigo, arroz, maíz, cebada, batata y tapioca. Se han cultivado 7. 103 y  hay 75. 103  especies vegetales comestibles… su pérdida sería irreparable para la humanidad), medicinas, genes que podrían solucionar problemas actuales o futuros.

El aumento de la población ha provocado impactos como la destrucción de ecosistemas, la sobreexplotación de especies de interés comercial (pescado, carne madera) y la introducción de especies invasores que tienen un efecto devastador sobre la biodiversidad.
 

ALTERNATIVAS A LA DEGRADACIÓN AMBIENTAL

 

1.) Energías Renovables.  El 80% del consumo energético proviene en la actualidad de la quema de combustibles fósiles (carbón, petróleo y gas natural), que producen CO2, causante del efecto invernadero, se agotan rápidamente y su consiguiente encarecimiento.

Urge la utilización de energías más o menos limpias como la geotérmica, hidráulica, impacto ambiental como la mareomotriz o la de las olas, la biomasa (CO2), biocarburantes (CO2), solar (placas que consumen mucha energía en su fabricación), eólica (impacto).

            2.) Aire limpio. Ya en el silo XV ciertos autores ingleses denunciaban el olor nauseabundo de las calles de Londres causados por los “gases infernales y subterráneos” que desprendía la quema del carbón mineral…

  * Conocer los principales contaminantes atmosféricos y sus impactos (pág. 164).

Principales contaminantes atmosféricos y sus impactos.

Monóxido de carbono. Gas inodoro que procede de la combustión incompleta de hidrocarburos. Se produce cuando no hay suficiente ventilación. El impacto en áreas urbanas con mucho tráfico o en zonas industriales el monóxido del carbono puede alcanzar  niveles que desencadenan dolores de cabeza, mareos y fatiga.
En concentraciones altas este gas resulta letal al impedir que el oxígeno se una a la hemoglobina, pudiendo causar la muerte en cuestión de minutos.

Hidrocarburos poli cíclicos aromáticos (HPA). Se producen en la combustión incompleta de la materia orgánica. Los HPA del aire proceden de centrales eléctricas térmicas de vehículos y calefacciones de la incineración de materia orgánica y de los incendios forestales. El impacto, algunos HPA, como los benzopirenos, son potentes carcinógenos y no sólo se hallan en la atmósfera, también se encuentran en el suelo y en el agua.

óxidos de nitrógeno y de azufre. Son emitidos por las centrales térmicas, las fábricas y las calderas al quemar carbón, gasóleo y gasolina. Una vez en el aire, reaccionan con el vapor de agua y forman  ácido sulfúrico y nítrico, que caen de nuevo al suelo en forma de lluvias ácidas, incluso a miles de kilómetros de distancia de la fuente emisora. El impacto, estos ácidos provocan caídas en el pH de suelos, ríos, largos e incluso pueden verse afectadas zonas concretas del océano. También pueden dañar directamente a los seres vivos, sobre todo a las hojas de los árboles, debilitándolas, alterando la fotosíntesis y minando la salud de los bosques. La lluvia ácida afecta igualmente a edificios y monumentos, acelerando su corrosión, así como la salud humana, ya que puede ocasionar trastornos respiratorios.

Partículas. De orígenes dispares, en forma de humo, polvo, vapores y compuestos orgánicos volátiles. Provienen de actividades humanas cómo las centrales eléctricas, medios de transporte, fertilizantes, pinturas y otros productos. En menor medida también son generados por procesos naturales como el vulcanismo y los incendios forestales. El impacto, de las partículas es muy variable, puede ir desde la simple reducción de visibilidad hasta ser la causa de enfermedades de tipo respiratorio y cancerígeno.

Clorofluorocarbonos (CFC). Gases de síntesis, inventados en 1930 para usarlos como refrigerantes y propelentes de aerosoles. Más adelante se aplicaron en la industria del plástico y la electrónica. El impacto, los CFC destruyen el ozono estratosférico. Está destrucción del ozono podría incrementar la radiación ultravioleta que llega a la Tierra. Esta radiación dañina aumenta los riesgos de cáncer de piel y de padecer cataratas oculares.


         * Conocer en qué consisten el “agujero de la capa de ozono” y el  Efecto Invernadero Natural y Humano (pág. 165)

El agujero de ozono 

Las imágenes de la derecha muestran el agujero de ozono sobre la Antártida en 1998 y 2007. Las zonas azul y violeta corresponden a las de menor cantidad de ozono.
En la página www.ozonewatch.gsfc.nasa.gov/index.html de la Nasa se puede consultar el estado del agujero de ozono en los últimos siete días.
También se puede acceder a los registros históricos que existen desde 1979.
Se denomina agujero de la capa de ozono a la zona de la atmósfera terrestre donde se producen reducciones anormales de la capa de ozono, fenómeno anual observado durante la primavera en las regiones polares y que es seguido de una recuperación durante el verano.

Gases de efecto invernadero y cambio climático
http://es.wikipedia.org/wiki/Efecto_invernadero

Un invernadero es un terreno dedicado al cultivo de plantas que se halla protegido por algún material , generalmente plástico, de forma que la luz solar calienta el aire interior pero el calor no sale con facilidad. De esta manera se mantienen unas temperaturas más altas y estables.
De modo similar, la luz procedente del Sol calienta la Tierra y esta libera parte del calor en forma de radiación infrarroja. Existen gases en la atmósfera que tienen la capacidad de retener parte de los infrarrojos, así que no todo el calor que había entrado sale de nuevo.
Gracias a los gases de efecto invernadero vivimos en un planeta confortable, ya que sin ellos la Tierra sería un lugar gélido e inhóspito.
En la atmósfera se hallan más de una treintena de gases de efecto invernadero , algunos de ellos muy potentes, pero sus concentraciones son tan bajas que su influencia es prácticamente despreciable en relación con los dos responsables principales: el vapor de agua y el dióxido de carbono.
El más importante es el vapor de agua, que retiene las dos terceras partes del calor que absorbe la atmósfera. Al formar parte del ciclo del agua, su concentración varía continuamente, por lo que no es posible determinar con exactitud su cantidad en el aire (llega hasta un 4%). Además el agua puede ayudar a calentar o a enfriar, como sucede  cuando forma nubes y obstaculiza el paso de la luz del Sol.
Hoy en día se desconoce exactamente en qué medida el vapor de agua afecta al clima, y aunque se continúa investigando, los científicos están orientando sus esfuerzos hacia otros gases sobre los que sí podemos intervenir.

Gracias al efecto invernadero
Como ya sabemos, si la Tierra no tuviese efecto invernadero, su temperatura seria de -18ºC.
Gracias al efecto invernadero, la temperatura media de nuestro planeta es realmente de 15ºC.
Estos 33ºC de diferencia se los debemos a los siguientes compuestos:
  • Vapor de agua (0-4% del aire), unos 20,6ºC.
  • Dióxido de carbono (335 ppm en el aire), unos 7,2ºC.
  • Ozono de la troposfera (0,03 ppm), unos 2,4ºC.
  • Óxido de di nitrógeno (0,3 ppm), unos 1,4ºC.
  • Metano (1,7 ppm), unos 0,8ºC.
  • CFC y otros (2 ppm), unos 0,6ºC.
 
3.) Calidad del agua. La vida es inseparable del agua líquida y aunque el 70% del planeta está cubierto de agua, sólo el 3% es dulce y de esta, la mayoría es hielo.

            La actividad humana está unida al uso masivo del agua dulce en la industria, agricultura y ganadería produciendo además, vertidos residuales que la contaminan, haciéndola perder las condiciones necesarias para los usos que tenía en su estado previo (productos químicos, microorganismos, elevación de temperatura, residuos  orgánicos y ganaderos, abonos, pesticidas, metales pesados -Hg y Pb-, pinturas y disolventes, hidrocarburos….. que le hacen perder al agua su calidad)

            En las últimas décadas ha mejorado la tecnología para el tratamiento de los efluentes, pero la situación es extraordinariamente preocupante

           

4.) Lucha contra la desertificación. La pérdida de suelo fértil por la eliminación de la cubierta vegetal protectora por deforestación, pastoreo intensivo, incendios forestales, urbanización y agricultura en suelos marginales.

            La desertificación es una de las principales dificultades para aumentar la producción de alimentos y conservar la biodiversidad.

            Urge la gestión adecuada del agua, proteger la cubierta vegetal y fomentar una agricultura y ganadería acorde con las posibilidades del suelo y su preservación. La protección del suelo es más rentable y económica que su recuperación.

            En Andalucía  y el levante español es un problema grave, pues el clima subárido (lluvias torrenciales) favorece los arroyos y la desertización.
       
    
5.) Las tres “R”. El desarrollo tecnológico y la sociedad de consumo han disparatado la producción de residuos sólidos (las menos agresivas del medio), líquidos y gaseosos –más y más contaminantes-. Proceden de la agricultura, ganadería, pesquerías y aprovechamiento forestal; lo minería, la medicina y las ingentes cantidades de basura de hogares, comercios y construcción.

            Contra los residuos biodegradación (microorganismos que consumen ciertas sustancias residuales) y biorremediación (favorecer la biodegradación, añadiendo abonos a los vertidos petrolíferos para favorecer el desarrollo de los  microorganismos que lo degradan).

            Pero lo más urgente es frenar el impacto de los residuos sobre el medio mediante tres acciones (Las tres “R”):

  •         Reducir la cantidad de residuos.

  •          Reutilizar en lugar de usar y tirar.

  •         Reciclar los desechos, especialmente papel, vidrio y metales (recogida selectiva y el tratamiento de los residuos para su reciclado es costoso y debería pagarlo el que los produce, “El que contamina paga”, pero al final lo pagamos los consumidores con un sobrecoste en nuestras compras.

 

6.) Disminuir la exposición a los riesgos naturales. Se viene observando un aumento de los riesgos climáticos asociados al cambio climático. El aumento de la cantidad de energía en la atmósfera, provocan violentos huracanes, inundaciones, vientos…. cuyos efectos son devastadores debido a las grandes concentraciones de la población en las ciudades (más del 50% de la humanidad vive en ellas) que además, muchas de ellas están situadas en lugares de riesgo como costas bajas o zonas sísmicas ……. Los expertos esperan que en cualquier momento ocurra el primer desastre natural que produzca un millón de muertos en una de estas megaciudades. años.