domingo, 8 de julio de 2007

Kevin David Mitnik "HACKER"

Esta es su historia: Kevin David Mitnik, alias “El Cóndor”, nació el 6 de agosto de 1963 en Van Nuys, un pequeño pueblo al sur de California. Hace 41 años. Kevin no tuvo una infancia fácil. Sus padres se divorciaron, y el entorno en el que creció supuso una de las causas que le llevaron a encerrarse en casa y permanecer en soledad, momento (1970s) en el que fue seducido por las mieles de la informática; en concreto, por el poder que entrevio que podía obtener a través de las redes telefónicas. De hecho, a pesar de que Kevin ha recibido calificativos tan diversos como hacker, cracker, pirata informático y otras palabras nada agradables que eludo mencionar, lo cierto es que en esencia, Mitnik siempre ha sido un Phreaker; el mejor phreaker de la historia, según muchos.

Desde muy joven sintió curiosidad por los sistemas de comunicación electrónica, cultivando y desarrollando un deseo cuasi obsesivo por investigar, aprender y lograr objetivos aparentemente imposibles. En la adolescencia Mitnick ya se había convertido en todo un fenómeno. A los 16 años marca su primera línea tras la barrera del “lado oscuro”, del que ya nunca se separaría: se saltó la seguridad del sistema administrativo de su colegio; sin embargo, no lo hizo para alterar las calificaciones escolares, como podría pensarse, sino “solo para mirar”.


De aquí en adelante comenzaría su andadura como delincuente. La fecha, 1981. Kevin y dos amigos suyos irrumpieron en las oficinas de Cosmos (Computer System for Mainframe Operations) de la compañía Pacific Bell – que era una base de datos utilizada por la mayor parte de las compañías telefónicas norteamericanas para controlar el registro de llamadas -. Una vez allí obtuvieron la lista de claves de seguridad, la combinación de las puertas de acceso de varias sucursales, y manuales del sistema COSMOS, entre otras cosas. De hecho, se comentó que lo sustraido por Mitnick y sus amigos tenía un valor equivalente a 170.000 euros.


Usando ingeniería social utilizaron sus seudónimos y números de teléfono en uno de los escritorios de la habitación. Así, usaron el nombre falso de “John Draper”, quien era un programador informático muy conocido, y también un legendario phreaker conocido como “Captain Crunch”. Los números de teléfono fueron derivados a otras rutas. Sin embargo, esta actuación estaba lejos de considerarse un éxito. Un directivo de una compañía telefónica pronto descubrió estos números de teléfono y lo puso en conocimiento de la policía local que comenzó a investigar. Debido a que la novia de uno de sus amigos, intimidada por lo que pudiera pasar les delató a la policía, Mitnick fue condenado por una corte juvenil a tres meses de cárcel y a un año bajo libertad condicional, gracias a que todavía era menor de edad. Ese fue su primer paso por la cárcel, que no el último.


Una de las historias curiosas relacionada con esta etapa de Mitnick tiene que ver con el oficial encargado de su caso. Al cumplir los tres meses de prisión, lo primero que hizo Mitnick fue dejarle una “sorpresita” al susodicho. El oficial se encontró con que su teléfono había sido desconectado y todos sus datos de registro en la compañía telefónica habían sido borrados. A partir de aquí, todo sucedió con una celeridad inquietante.


Se comenta que Mitnik adoptó su alias o nombre de guerra (“Cóndor”) después de haber visto la película protagonizada por Robert Redford “Los tres días del Cóndor”, ya que en cierto modo se sentía identificado con el protagonista. Redford encarnaba a un empleado de la Agencia Central de Inteligencia de Estados Unidos (CIA) que se ve envuelto en un turbio asunto que continúa con una implacable persecución. Su nombre en clave es “cóndor” y Redford utiliza su experiencia para manipular el sistema telefónico y evitar ser capturado.


Su siguiente arresto tuvo lugar poco después; en 1983, por un policía de la Universidad del Sur de California donde había tenido algunos problemas unos años antes. Mitnick fue capturado por usar un ordenador de la universidad para obtener acceso (ilegal) a la red ARPAnet (la predecesora de Internet). De hecho fue descubierto entrando en un ordenador del Pentágono a través de ARPAnet, y fue sentenciado a seis meses de cárcel en una prisión juvenil de California (California Youth AthorityŽs Karl Holton Training School). Una vez puesto en libertad, obtuvo la licencia de “X Hacker” (...)


En 1987 Mitnick parecía estar realizando un cambio en su vida, y comenzó a convivir con una joven que estaba dando clases de informática con él en una escuela local. Después de un tiempo, de cualquier forma, su obsesión emergió y s utilización de números de tarjetas de crédito telefónicas ilegales condujo a la policía hasta el apartamento que Mitnick compartía con su novia en el pueblo Thousand Oaks, California. Mitnick fue acusado de robar software de Microcorp Systems, una pequeña empresa californiana de software, y ese mismo mes de diciembre era condenado a tres años de libertad condicional.


Después de esto Mitnick, solicitó un empleo en el Security Pacific Bank como encargado de la seguridad de la red del banco, pero este lo rechazó precisamente por sus antecedentes penales. La respuesta de Mitnick fue falsificar un balance general del banco donde se mostraban pérdidas por 400 millones de dólares y trató de difundirlo por la red. Sin embargo, el administrador de la red detuvo esta acción a tiempo.


Ese mismo año inicio el escándalo que lo lanzo a la fama. De 1987 a 1988 Kevin y su gran amigo, Lenny DiCicco, se enzarzaron en una lucha electrónica continua contra los científicos del laboratorio de investigación digital de Palo Alto. Mitnick estaba obcecado en obtener una copia del prototipo del nuevo sistema operativo de seguridad llamado VMS y estuvo intentando conseguirlo obteniendo la entrada a la red corporativa de la empresa, conocida coo Easynet. Los ordenadores del laboratorio digital de Palo Alto parecían simples, por lo que cada noche y con inestimable persistencia, Mitnick y DiCicco lanzaban sus ataques desde una pequeña compañía californiana (Calabasas), donde DiCicco trabajaba de técnico de soporte. Aunque la empresa descubrió los ataques casi inmediatamente, no sabían de dónde venían. De hecho ni el propio FBI podía fiarse de los datos obtenidos de las compañías telefónicas ya que Mitnick se ocupaba de no dejar rastro alterando el programa encargado de rastrear la procedencia de las llamadas y desviando el rastro de su llamada a otros lugares. En una ocasión, el FBI, creyendo que había encontrado a Mitnick, irrumpió en la casa de unos inmigrantes que estaban viendo la televisión, para asombro de estos y aquellos.


Sin embargo, ya se encontraban sobre la pista de Mitnick, y este, atemorizado por la posibilidad de que le cogieran, traicionó a su compañero y trató de poner a los federales bajo la pista de DiCicco, haciendo llamadas anónimas al jefe de este que trabajaba en una compañía de software como técnico de soporte. Viendo la traición de Mitnick, DiCicco finalmente se lo confesó todo a su jefe que lo notificó al DEC (Digital Equiment Corporation ) y al FBI. Al poco, un equipo de agentes del departamento de seguridad telefónica logró apresarle. Era 1988.


Aunque el DEC reclamaba que Mitnick había robado sofware por valor de varios millones de dólares, Kevin fue acusado de fraude informático y por posesión ilegal de códigos de acceso de larga distancia. Se trataba de la quinta ocasión en que Mitnick había sido arrestado por un caso de crimen informático y el caso atrajo la atención de la toda la nación, gracias a una inusual táctica de la defensa. La defensa solicitaba un año de prisión y seis meses en un programa de rehabilitación para tratar su adicción a los ordenadores. Fue una extraña táctica de defensa, pero un juzgado federal, después de dudar, pensó que había algún tipo de relación psicológica entre la obsesión de Mitnick por entrar en los sistemas informáticos y la adicción a las drogas o a las tragaperras y se le dio el visto bueno. Después del periodo carcelario y su temporada con psicólogos, donde le fue prohibido acercarse a un ordenador o un teléfono (llegó a perder 45 kilos de peso), Mitnick se marchó a Las Vegas y consiguió un empleo de programador informático de bajo nivel en una empresa de envío de listas de correo.


En 1992 Mitnick se mudó al área del Valle de San Fernando después de que su medio hermano muriera de una aparente sobredosis de heroina. Allí tuvo un breve trabajo en la construcción, que dejó al obtener un empleo a través de un amigo de su padre, en la Agencia de Detectives Tel Tec. Tan pronto como comenzó a trabajar, alguien fue descubierto ilegalmente usando el sistema de la base de datos comercial de la agencia y por ello Kevin fue objeto de una investigación bajo la batuta del FBI.


En septiembre registraron su apartamento al igual que la casa y el lugar de trabajo de otro miembro de su grupo de phreakers. Dos meses después un juzgado federal pidió el arresto de Mitnick por haber violado los términos de su libertad en 1989. Cuando fueron a detenerle, Mitnick había desaparecido sin dejar rastro alguno convirtiéndose ya en un hacker prófugo.



Una de las tesis que se barajan reflexionando sobre el eco que tuvo Mitnick en la sociedad y entre los propios hackers fue que la seguridad informática de aquella época era tierra de nadie; la informática apenas había despertado y los conocimientos informáticos de usuarios y técnicos no representan el abismo actual.


En 1991 se produce el famoso enfrentamiento con el periodista del New York Times, John Markoff quien llevaba desde el 88 escribiendo sobre tecnología y negocios. De hecho, ese mismo año recibió el premio de la Software Publishers Association al mejor reportaje. Kevin ha insistido siempre que Markoff le llamó para que colaborara en un libro que estaba escribiendo sobre él; Mitnick se negó y Markoff publicó su ejemplar exponiendo a Mitnick como un auténtico delincuente informático. Según Mitnick, “todo comenzó con una serie de artículos firmados por John Markoff en la portada de The New York Times, llenos de acusaciones falsas y difamatorias, que más tarde fueron desmentidas por las propias autoridades. Markoff me la tenía jurada porque me negué a colaborar en su libro y creó el mito de Kevin Mitnick, para transformar Takedown [su libro] en un bestseller”. Después de esto la cacería por parte de las autoridades había comenzado. Mitnick se ha defendido de esta cacería afirmando que “Las autoridades aprovecharon la ocasión para transformarme en el chivo expiatorio de todos los hackers de la tierra. Y para autojustificarse, exageraron hasta lo inverosímil el daño que pude causar”.


En 1994 con el auge de la telefonía móvil, Mitnick encontró esta plataforma ideal para no ser localizado y poder deambular de un sitio a otro. Pero para ello necesitaba utilizar una serie de programas que le permitieran moverse con la misma facilidad con que lo había hecho antes (a través de la red telefónica). Así, a través de sus refinadas y exitosas técnicas de ingeniería social, logra hacerse con la clave del ordenador personal de Tsutomu Shimomura gracias a la técnica del IP Spoofing (falseamiento de ip), que para estrepitosa suerte de Mitnick, era un especialista japonés en seguridad informática, perteneciente a la Netcom On-Line Communications. Su encontronazo con Shimomura le llevaría al declive.

Shimomura era considerado un hacker de sombrero blanco (Whitehats), un hacker de los buenos, que cuando descubría alguna vulnerabilidad lo ponía en conocimiento de la policía o la entidad competente en vez de difundirlo a otros hackers por la Red. Cuando se dio cuenta de que habían vulnerado la seguridad de su propio ordenador, comenzó a investigar sobre él, y dado el carácter poco modesto de Mitnick, Shimomura se lanzó en cruzada personal contra el que ya llamaban “superhacker”, y dijo que “atraparía a ese americano estúpido”, que no pararía hasta cogerle. Y así fue.

En 1995 , después de haber descubierto el software de Shimomura en una cuenta de The Well (que utilizó para lanzar ataques a empresas tan conocidas como Apple, Motorola o Qualcomm), un isp de California, tardaron alrededor de dos semanas en determinar que las llamadas provenían de Raleigh (California). Después de pasar también por el isp Internex, Shimomura se puso en contacto con el FBI y estos enviaron un grupo de rastreo equipado con un simulador de celda (un equipo utilizado habitualmente para testear móviles) que se ocupaba de registrar el teléfono de Mitnick tanto si estaba encendido como si no. Un buen radar para localizar al hacker. Al filo de la medianoche comenzó la búsqueda de procedencia de la señal. Unas horas más tarde localizaron la señal en un grupo de apartamentos, pero aún desconocían en cuál de ellos podría encontrarse Mitnick.

Por su parte, Shimomura y el FBI planeaban la captura del hacker para el día siguiente (16 de febrero), pero un error en el mensaje codificado que Shimomura remitió al encargado de Netcom precipitó su captura, ya que este tenía orden de hacer backup de todo el material que tuviera Mitnick y posteriormente proceder a su borrado una vez fuera capturado. Y eso interpretó. El FBI se vio abocado a realizar una actuación rápida si no querían volver a perderle, así que como no sospechaban que Mitnick pudiera ir armado, anunciaron su presencia ante la puerta del apartamento en que se encontraba Mitnick. Este abrió tranquilamente la puerta, y fue arrestado de inmediato. El hacker había sido capturado. Era el 15 de febrero de 1995.

Pero a Shimomura todavía le esperaba una sorpresa más ese día. Al volver a casa y repasar los mensajes que había recibido en su contestador automático, boquiabierto escuchó varios mensajes dejados por Mitnick; mensajes que había recibido varias horas después de la captura de Mitnick. La realización de estas llamadas aún sigue siendo un misterio que forma parte de la interesante historia de este hacker.

Kevin Mitnick fue acusado de robo de software, fraude electrónico, daño a los ordenadores de la Universidad del Sur de California, robo de archivos e intercepción de mensajes de correo electrónico. Entre las compañías afectadas figuraban Nokia, Fujitsu, Nec, Novell, Sun Microsystems, Motorola, Apple... Se declaró no culpable y la sentencia le condenó a 5 años de cárcel sin posibilidad de fianza, lo cual enervó a los miles de hackers que seguían apasionados la historia del Cóndor y que comenzaron la conocida campaña “Free Kevin!” (liberad a Kevin) alterando páginas web muy conocidas: Unicef, New York times, Fox TV y un largo etcétera.

Mitnick, quien fue liberado en enero del 2000 tras permanecer casi cinco años en una prisión federal, estuvo bajo libertad condicional hasta enero de 2003, donde la jueza instructora del caso, Mariana Pfaelzer, prohibió a Mitnick accerder a cualquier tipo de ordenador, teléfono móvil, televisión, o cualquier aparato electrónico que pudiera conectarse a internet, con lo cual su abstinencia informática le acompañó también durante estos tres años posteriores a su salida de la cárcel.

Pese a esto, Mitnick no perdió el tiempo. Lanzó su propia empresa, Defensive Thinking, una consultoría sobre seguridad, y comenzó a escribir un libro sobre su historia. A pesar de que según sentencia judicial tiene prohibido obtener beneficio económico de ello hasta el 2010, el 4 de octubre de 2002 salió a la luz “The art of deception” (El arte del engaño), donde describe técnicas de manipulación y persuasión gracias a las cuales se pueden obtener los códigos necesarios para entrar en la red de una empresa y hacerse pasar por otra persona, por ejemplo. Su lanzamiento se explicó aduciendo que el libro tenía finalidad educativa. "Ciertas técnicas y artimañas les he utilizado contra algunas empresas, pero todas las historias del libro son ficticias", afirmó.

A finales de 2003, Kevin anunciaba su segundo libro: “The art of intrusion”. El anuncio se realizaba de una forma muy peculiar, ya que Kevin afirmaba estar buscando historias que puedan ser contrastadas y que narren el como lo hicieron, preservando la identidad de los asaltantes. Los "hackers" seleccionados recibirían como pago una copia del primer libro de Mitnick, "The Art of Deception", un ejemplar del segundo, en ambos casos firmado por el autor, y la opción de conseguir el premio al mejor asalto, dotado con 500.000 dólares.

Como datos curiosos, Mitnick participó en algunas series de televisión; entre ellas, apareció en “Alias” de la ABC interpretando a un informático de la CIA; produjo un show radiofónico y vendió algunas de sus posesiones (un Toshiba Satellite 4400SX y un Toshiba 1960CS ).

Se han hecho películas sobre su vida como Takedown (Asalto Final) en el 2000, también conocida como Hackers 2 y algunos libros como “Cyber Alert: Portrait of an ex hacker”, The Fugitive Game : Online with Kevin Mitnick, The Cyberthief and the samurai, o “Takedown”.

En la actualidad, Mitnick es consultor de seguridad, se dedica a dar conferencias sobre protección de redes informáticas, ingeniería social, etc, a lo largo y ancho del mundo, a seguir escribiendo libros, y... recaudando bastantes millones de dólares con ello.





ISAAC NEWTON

Isaac Newton nació el día de Navidad del antiguo calendario en 1642 (correspondiente al 4 de Enero de 1643 del nuevo calendario), año en que moría Galileo, en el pueblecito de Woolsthorpe, unos 13 Km. al sur de Grantham, en el Lincolnshire. Fue un niño prematuro y su padre murió antes de su nacimiento, a los treinta y siete años. Isaac fue educado por su abuela, preocupada por la delicada salud de su nieto. Su madre, mujer ahorrativa y diligente, se casó de nuevo cuando su hijo no tenía más que tres años. Newton frecuentó la escuela del lugar y, siendo muy niño, manifestó un comportamiento completamente normal, con un interés marcado por los juguetes mecánicos.

El reverendo William Ayscough, tío de Newton y diplomado por el Trinity College de Cambridge, convenció a su madre de que lo enviara a Cambridge en lugar de dejarlo en la granja familiar para ayudarla. En junio de 1661, a los dieciocho años, era pues alumno del Trinity College, y nada en sus estudios anteriores permitía entrever o incluso esperar la deslumbrante carrera científica del fundador de la mecánica y la óptica. Por otra parte, el Trinity College tenía fama de ser una institución sumamente recomendable para aquellos que se destinaban a las órdenes. Afortunadamente, esta institución le brindó hospitalidad, libertad y una atmósfera amistosa que le permitieron tomar contacto verdadero con el campo de la ciencia.

Al comienzo de su estancia en Cambridge, se interesó en primer lugar por la química, y este interés, según se dice, se manifestó a lo largo de toda su vida. Durante su primer año de estudios, y probablemente por primera vez, leyó una obra de matemáticas sobre la geometría de Euclides, lo que despertó en él el deseo de leer otras obras. Parece también que su primer tutor fue Benjamin Pulleyn, posteriormente profesor de griego en la Universidad. En 1663, Newton leyó la Clavis mathematicae de Oughtred, la Geometria a Renato Des Cartes de Van Schooten, la Optica de Kepler, la Opera mathematica de Vieta, editadas por Van Schooten y, en 1644, la Aritmética de Wallis que le serviría como introducción a sus investigaciones sobre las series infinitas, el teorema del binomio, ciertas cuadraturas. También a partir de 1663 Newton conoció a Barrow, quien le dio clase como primer profesor lucasiano de matemáticas. En la misma época, Newton entró en contacto con los trabajos de Galileo, Fermat, Huygens y otros, a partir probablemente de la edición de 1659 de la Geometria de Descartes por Van Schooten.

Desde finales de 1664, Newton parece dispuesto a contribuir personalmente al desarrollo de las matemáticas. Aborda entonces el teorema del binomio, a partir de los trabajos de Wallis, y el cálculo de fluxiones. Después, al acabar sus estudios de bachiller, debe volver a la granja familiar a causa de una epidemia de peste bubónica. Retirado con su familia durante los años 1665-1666, conoce un período muy intenso de descubrimientos: descubre la ley del inverso del cuadrado, de la gravitación, desarrolla su cálculo de fluxiones, generaliza el teorema del binomio y pone de manifiesto la naturaleza física de los colores. Sin embargo, Newton guarda silencio sobre sus descubrimientos y reanuda sus estudios en Cambridge en 1667.

De 1667 a 1669, emprende activamente investigaciones sobre óptica y es elegido fellow del Trinity College. En 1669, Barrow renuncia a su cátedra lucasiana de matemáticas y Newton le sucede y ocupa este puesto hasta 1696. El mismo año envía a Collins, por medio de Barrow, su Analysis per aequationes numero terminorum infinitos. Para Newton, este manuscrito representa la introducción a un potente método general, que desarrollará más tarde: su cálculo diferencial e integral. En 1672 publicó una obra sobre la luz con una exposición de su filosofía de las ciencias, libro que fue severamente criticado por la mayor parte de sus contemporáneos, entre ellos Robert Hooke (1638-1703) y Huygens, quienes sostenían ideas diferentes sobre la naturaleza de la luz. Como Newton no quería publicar sus descubrimientos, no le faltaba más que eso para reafirmarle en sus convicciones, y mantuvo su palabra hasta 1687, año de la publicación de sus Principia, salvo quizá otra obra sobre la luz que apareció en 1675.

Desde 1673 hasta 1683, Newton enseñó álgebra y teoría de ecuaciones, pero parece que asistían pocos estudiantes a sus cursos. Mientras tanto, Barrow y el astrónomo Edmond Halley (1656-1742) reconocían sus méritos y le estimulaban en sus trabajos. Hacia 1679, verificó su ley de la gravitación universal y estableció la compatibilidad entre su ley y las tres de Kepler sobre los movimientos planetarios.

Newton descubrió los principios de su cálculo diferencial e integral hacia 1665-1666, y durante el decenio siguiente elaboró al menos tres enfoques diferentes de su nuevo análisis. Desde 1684, su amigo Halley le incita a publicar sus trabajos de mecánica, y finalmente, gracias al sostén moral y económico de este último y de la Royal Society, publica en 1687 sus célebres Philosophiae naturalis principia mathematíca. Los tres libros de esta obra contienen los fundamentos de la física y la astronomía escritos en el lenguaje de la geometría pura. El libro I contiene el método de las "primeras y últimas razones" y, bajo la forma de notas o de escolios, se encuentra como anexo del libro III la teoría de las fluxiones. Aunque esta obra monumental le aportó un gran renombre, resulta un estudio difícil de comprender, y parece que Newton quiso que fuera así con el fin «de evitar ser rebajado por pequeños semisabios en matemáticas». Quiso escapar así a las críticas suscitadas por sus textos sobre la luz.

En 1687, Newton defendió los derechos de la Universidad de Cambridge contra el impopular rey Jacobo II y, como resultado tangible de la eficacia que demostró en esa ocasión, fue elegido miembro del Parlamento en 1689, en el momento en que el rey era destronado y obligado a exiliarse. Mantuvo su escaño en el Parlamento durante varios años sin mostrarse, no obstante, muy activo durante los debates. Durante este tiempo prosiguió sus trabajos de química, en los que se reveló muy competente, aunque no publicara grandes descubrimientos sobre el tema. Se dedicó también al estudio de la hidrostática y de la hidrodinámica además de construir telescopios.

Después de haber sido profesor durante cerca de treinta años, Newton abandonó su puesto para aceptar la responsabilidad de Director de la Moneda en 1696. Durante los últimos treinta años de su vida, abandonó prácticamente sus investigaciones y se consagró progresivamente a los estudios religiosos. Fue elegido presidente de la Royal Society en 1703 y reelegido cada año hasta su muerte. En 1705 fue hecho caballero por la reina Ana, como recompensa a los servicios prestados a Inglaterra.

Los últimos años de su vida se vieron ensombrecidos por la desgraciada controversia, de envergadura internacional, con Leibniz a propósito de la prioridad de la invención del nuevo análisis, Acusaciones mutuas de plagio, secretos disimulados en criptogramas, cartas anónimas, tratados inéditos, afirmaciones a menudo subjetivas de amigos y partidarios de los dos gigantes enfrentados, celos manifiestos y esfuerzos desplegados por los conciliadores para aproximar a los clanes adversos, he aquí en pocas palabras los detalles de esta célebre controversia, que se terminó con la muerte de Leibniz en 1716, pero cuyas malhadadas secuelas se harán sentir hasta fines del siglo XVIII.

Después de una larga y atroz enfermedad, Newton murió durante la noche del 20 de marzo de 1727, y fue enterrado en la abadía de Westminster en medio de los grandes hombres de Inglaterra.

"No sé cómo puedo ser visto por el mundo, pero en mi opinión, me he comportado como un niño que juega al borde del mar, y que se divierte buscando de vez en cuando una piedra más pulida y una concha más bonita de lo normal, mientras que el gran océano de la verdad se exponía ante mí completamente desconocido."

Esta era la opinión que Newton tenía de sí mismo al fin de su vida. Fue muy respetado, y ningún hombre ha recibido tantos honores y respeto, salvo quizá Einstein. Heredó de sus predecesores, como él bien dice "si he visto más lejos que los otros hombres es porque me he aupado a hombros de gigantes"- los ladrillos necesarios, que supo disponer para erigir la arquitectura de la dinámica y la mecánica celeste, al tiempo que aportaba al cálculo diferencial el impulso vital que le faltaba.

Albert Einstein

« Albert Einstein »

"Soy en verdad un viajero solitario -expresó Einstein e una ocasión-, y los ideales que han iluminado mi camino y han proporcionado una y otra vez nuevo valor para afrontar la vida han sido: la belleza, la bondad y la verdad."

Tímido y retraído, con dificultades en el lenguaje y lento para aprender en sus primeros años escolares; apasionado de las ecuaciones, cuyo aprendizaje inicial se lo debió a su tío Jakov que lo instruyó en una serie de disciplinas y materias, entre ellas álgebra: "...cuando el animal que estamos cazando no puede ser apresado lo llamamos temporalmente "x" y continuamos la cacería hasta que lo echamos en nuestro morral", así le explicaba su tío, lo que le permitió llegar a temprana edad a dominar las matemáticas. Dotado de una exquisita sensibilidad que desplegó e el aprendizaje del violín, Albert Einstein fue el hombre destinado a integrar y proyectar, en una nueva concepción teórica, el saber que muchos hombres de ciencia anteriores prepararon con laboriosidad y grandeza.

Nacido en Ulm, Alemania el 14 de marzo de 1879. Antes cumplir dos años, su familia se trasladó a Munich, donde permaneció hasta 1895, período en el cual vio su vida trastornada cuando su familia se trasladó a Italia después del hundimiento de la firma eléctrica de su padre en Munich. Dejado en Munich para que terminara el año escolar, Albert decidió muy pronto abandonar el curso. y reunirse con su familia, cuando aún le faltaban tres años para terminar su educación media. El colegio no lo motivaba; era excelente en matemáticas y física pero no se interesaba por las otras materias. Así, a la edad de dieciséis años, Albert tuvo la oportunidad de conocer la gran tradición cultural italiana; admirar las obras de Miguel Ángel, que le impactara profundamente, y recorrer Italia pensando y estudiando por su cuenta. Durante este período empezó a contemplar los efectos del movimiento a la velocidad de la luz, un rompecabezas cuya resolución cambiaría para siempre la, física y la cosmología.

En Italia tuvo toda la libertad que quería y gozó por un tiempo de su vida, pero su padre lo obligó a pensar en la universidad. Regresó a Munich y luego se traslado a Zurich, en Suiza, para continuar sus estudios. En esta última ciudad no pudo ingresar a la universidad debido a no haber completado sus estudios secundarios. Alternativamente decidió incorporarse al Instituto Politécnico de Zurich, donde logró estudiar física y matemáticas con Heinrich Weber y Hermann Minkowski. Fue condiscípulo de Marcel Grossmann, que llegó a ser su gran amigo. Pero en la nación helvética, los caminos que tuvo que recorrer Albert Einstein no fueron fáciles. Llegó a conocer el hambre, la segregación académica - por no ser suizo - y también llegó a casarse con una joven matemática croata, Mileva Maric, luego de haber terminado sus estudios, en el año 1900, y de haber obtenido la nacionalidad suiza.

Con la graduación llegó el final de la asignación que le pasaba su familia, y Einstein tuvo que buscar trabajo. Sin recomendaciones -más tarde recordó que "no estaba en buenas relaciones con ninguno de sus anteriores maestros"-, no pudo encontrar ningún trabajo permanente y tuvo que arreglárselas de maestro para dictar clases particulares y/o a tiempo parcial. Después de dos años de empleos esporádicos, Einstein se volvió a beneficiar de la amistad de Marcel Grossmann, a quién había conocido en sus tiempos de estudiantes del Instituto Politécnico de Zurich, que por aquel entonces estaba enseñando matemáticas. A través de su contacto familiar, Grossmann consiguió para Einstein un puesto como experto técnico de tercera clase en la Oficina de Patentes suiza en Berna.

Trabajando en la oficina de patentes de Berna, Einstein pudo escamotear tiempo en su trabajo, gracias al dominio que había logrado en las funciones que desempeñaba, y dedicarlo para sus propios estudios sobre temas tales como las propiedades físicas de la luz. Por las noches trabajaba en ciencias o invitaba a algunos amigos a su apartamento para hablar de física, filosofía y literatura. Estas reuniones solían ser animadas y ruidosas duraban hasta altas horas de la noche, ante la irritación de sus vecinos. Aunque Einstein era esencialmente un solitario, la oportunidad de desarrollar ideas y probarlas sobre los agudos intelectos de sus amigos era valiosísima. Empezó a publicar los resultados de sus investigaciones en uno de los principales diarios científicos, y focalizó sus intuitivos análisis sobre las implicaciones de la cuestión que lo había intrigado años antes: ¿Cómo sería cabalgar en un rayo de luz?

A la temprana edad de veintiséis años, Einstein publicó cuatro trabajos científicos. En uno postula los cuanta de luz, para explicar el efecto fotoeléctrico. El segundo trabajo era acerca del movimiento browniano. Sin duda el trabajo más importante fue el titulado «Acerca de la electrodinámica de los cuerpos en movimiento», donde expone la relatividad especial. En él plantea dos postulados que tienen inmensas consecuencias:
  • Todos los observadores que se mueven entre sí con velocidad constante son equivalentes en lo que a las leyes de la física se refiere. Este es el principio de relatividad que excluye la noción de espacios y tiempos absolutos.

  • La velocidad de la luz en el vacío es la misma para todos los observadores, 299.792 kilómetros por segundo, y es independiente del movimiento relativo entre la fuente de luz y el observador. Este postulado explica el resultado negativo del experimento de Michelson y Morley. En esos primeros años Einstein plantea su famosa relación E = m x c2, el producto de la masa por el cuadrado de la velocidad de la luz dan la energía asociada a una masa m. Masa y energía son dos formas equivalentes. Esto produjo una revolución en nuestra comprensión de la física del Sol y las estrellas y constituye la base de la energía nuclear.
Hacia 1909, fue nombrado profesor del Instituto Politécnico de Zurich. Actividad docente que luego desarrolló en Praga y Berlín. Einstein trabajó afanosamente en una generalización de su teoría de la relatividad. En 1911, formula el principio de equivalencia entre un movimiento acelerado y un campo gravitacional.

Separado de su primera mujer, con la cual tuvo dos hijos varones, contrajo matrimonio con su prima Elsa Einstein en 1915, que también era separada y con dos hijas. Un año después, en 1916, dio a conocer su teoría general de la relatividad, en un periodo pleno de vivacidad y alegría. Escribió a uno de sus amigos: "En el curso de este último mes he vencido el periodo más excitante de mi vida y el más fructífero". En la relatividad general, geometriza la gravitación. Una masa deforma el espaciotiempo a su alrededor y Einstein proporciona las matemáticas que permiten calcular punto a punto la "geometría" en la vecindad de una masa.

Pese a ser de una concepción eminentemente de base de matemática abstracta, la relatividad general tenía un gran número de aplicaciones concretas. Por un lado, explicaba una desconcertante discrepancia en la órbita de Mercurio, el planeta más interior del sistema solar. El perihelio del planeta -el punto en el que está más cerca del Sol- avanzaba cada año en una cantidad significativamente más grande que la predicha por las leyes de Newton. En sus esfuerzos por explicar la diferencia, los astrónomos habían especulado durante algún tiempo en la existencia de un pequeño planeta que orbitara entre Mercurio y el Sol. Einstein demostró que ese cuerpo era innecesario. Su nueva teoría de la gravedad explicaba completamente el misterio de la órbita de Mercurio como una consecuencia del espacio intensamente curvado en las inmediaciones del Sol.

El éxito de esta primera aplicación de la teoría a la observación complació enormemente a Einstein: " Estuve fuera de mí por el éxtasis durante días", escribió a un amigo. La hazaña impresionó también a sus colegas científicos, pero después de todo era una explicación a hechos ya conocidos.

La primera comprobación empírica de la teoría de la relatividad ocurrió, cuando mediciones hechas durante el eclipse total de Sol de 1919 demostraron que sus cálcalos, sobre la curvatura de la luz en presencia de un campo gravitatorio, eran exactos. Cuando se dieron a conocer los resultados en la Royal Society de Londres, su presidente expresó emocionadamente: "No se trata en este caso del descubrimiento de una isla alejada del mundo, sino de todo un nuevo continente de nuevas ideas científicas. Es el más grande descubrimiento concerniente a la gravitación que se haya hecho después que Newton enunció sus principios".

Pero junto con la gloria también se hizo presente el dolor. En poco tiempo había perdido a su hijo Eduardo y fallecían dos de sus hijas: Ilsa y la que había tenido con su primera esposa.

Albert Einstein fue galardonado con el Premio Nobel de Física en el año 1921, por sus investigaciones sobre el efecto fotoeléctrico y sus grandes aportaciones en el terreno de la física teórica.

Desde comienzos de los años '30, y con el avenimiento en Alemania del nazismo, su vida se caracterizó por sus continuos viajes obligados, protegiéndose del régimen gobernante alemán, y por su decidida oposición a éste. Vivió en Coq, Bélgica, accediendo a una invitación de los reyes. Estuvo asimismo en Francia y Gran Bretaña, para finalmente echar raíces en Estados Unidos y, a contar de 1933, establecerse en Princenton. Allí falleció en 1936 su segunda esposa. En 1940, obtuvo la nacionalidad norteamericana y, hasta su muerte, acaecida el 18 de abril de 1955, Einstein trabajó por integrar en una misma teoría las cuatro fuerzas de la naturaleza: gravedad, electromagnetismo, y las subatómica fuerte y débil, las cuales comúnmente reconocemos como «fuerzas de campo».

Einstein escribió numerosos artículos de divulgación para revistas científicas, dictó conferencias que transcribieron, y algunos libros. Los títulos más destacados: Electrodinámica de los cuerpos en movimiento, Fundamentos de la teoría de la relatividad general, Sobre la teoría del campo unificado, Mis ideas y opiniones; La física, aventura del pensamiento, esta última obra escrita en colaboración con Leopold Infeld.

Einstein fue un científico que legó su preeminencia, hasta ahora, sin contrapesos. Genial y con la misma intuición física de Newton, pero con un carácter simpático; un visionario como Kepler, pero que siempre supo mantenerse aterrizado sobre la Tierra, recibió en vida, al igual que Newton, todos los honores y el respeto que un genio tan excepcional merece.

sábado, 12 de mayo de 2007

Entrevista a Linus Torlvads - Creador de Linux

Entrevista a Linus Torlvads


Creador de Linux





Nacido en Helsinki, Finlandia, en 1969.
Comenzó sus andaduras informáticas a la edad de 11 años. Su abuelo, un matemático y estadístico de la Universidad se compró uno de los primeros Commodore en 1980 y le pidió ayuda para usarlo
.

La pasada semana, Ben Spade vivió uno de los momentos más emo

cionantes de su vida. Cabecilla de un grupo de apasionados de la programación residentes en Silicon Valley, este americano presidía, el 4 de marzo, en las afueras de San José (California), la reunión mensual de sus tropas. Sólo esperaba una cincuentena de participantes, como de costumbre. Pero ese miércoles llegaron cerca de medio millar. Y todo porque un desconocido finlandés, llamado Linus Torvalds, era el orador invitado de la sesión.

Estupefacto ante el inesperado aforo, Ben Spade balbuceó unas cuantas palabras de presentación, antes de llamar a su invitado a subir al estrado. Entonces, los asistentes -una curiosa mezcla de estudiantes, directivos y antiguos hippies- prorrumpieron en una sonora ovación. Muy sereno, el joven Linus (28 años) cogió el micrófono e improvisó, en un inglés casi perfecto, una conferencia de casi una hora.

El público estaba enfervorizado. Torvalds representaba para ellos algo así como la presencia de Jean-Paul Sartre en Saint-Germain-des-Prés. Si Sartre había encendido las pasiones de los jóvenes de París, Torvalds emocionaba hasta el paroxismo a sus seguidores de Silicon Valley.

Torvalds es una especie de antiBill Gates. Si el temible usurero supermillonario pasa por ser el diablo de Internet, el joven finlandés se ha ganado, desde hace poco tiempo, la fama del arcángel de la Red.

Y es que, a sus 21 años, cuanto todavía era estudiante de la Universidad de Helsinki, Linus comenzó a crear un programa llamado Linux. Hoy, siete años después, este programa hace funcionar los ordenadores -entre tres y ocho millones, según los últimos censos- más exigentes del planeta.

Linux es como el Windows 95 de Microsoft, es decir, un sistema operativo: el programa "íntimo" del ordenador, sin el cual los demás programas no podrían funcionar. Al igual que no podría existir el canto si no hubiese cuerdas vocales.

Pero ahí se termina su paralelismo con Windows. Porque Linux no es un producto comercial. Está disponible, desde su lanzamiento y, lo que es mejor, en su versión bruta. Es decir, está disponible el "código fuente", que es para el programador lo que la partitura para el músico y, por lo tanto, mucho mejor que un disco, en el que no se puede cambiar nada, por muy extraordinario que sea el músico.

Esta transparencia total ha permitido hacer de la elaboración de Linux una obra colectiva, en la que participan -via Internet- varios miles de personas. Sólo por amor al arte y al trabajo bien hecho. El mismo Torvalds sólo ha escrito 50.000 líneas del código de un total de 1 millón.

La regla es sencilla. Cualquiera un poco ducho en la materia puede mejorar o completar Linux, teniendo en cuenta que aporta al bote común el fruto de su trabajo. A lo largo de todo el proceso, un grupo informal de expertos se encarga de acoplar los añadidos considerados dignos de ser integrados en el conjunto. Una delicada tarea que consiste en construir una catedral sin arquitecto, evitando las escisiones entre los obreros (es decir, la aparición de versiones divergentes del programa). Y el proyecto Linux demostró que la tarea es posible.

Más aún, esta alianza de la programación "abierta" y de Internet ha hecho nacer un nuevo modelo de desarrollo de programación, a mil leguas del de Microsoft, y con mayores prestaciones. Según los expertos, en efecto, Windows es un programa bastante malo ("repleto de toneladas de fallos", revela Linus), mientras que Linux es unánimente considerado como un programa elegante y bien concebido. ¿Se habrá encontrado una solución de recambio a la economía de mercado, al menos en el sector de la programación? Algunos no dudan en afirmarlo, lo que confiere al tema un cariz político bastante inesperado.

Un detalle significativo: la mañana de esa famosa reunión en San José, el San Francisco Chronicle consagraba una página doble a la informática. A la izquierda, el relato de la comparecencia espectacular de Bill Gates, realizada la víspera, ante una comisión senatorial, que intentaba saber si Microsoft era o no era un monopolio. A la derecha, un editorial que venía a decir más o menos lo siguiente: "Dejen en paz a Bill Gates, porque la auténtica amenaza es Linus Torvalds". Seguía una pequeña presentación del finlandés y esta conclusión: "Vayan a decirles a esos socialistas de la programación que se lleven a Europa sus concepciones radicales del desarrollo cooperativo del "free code". Los americanos exigen su libertad de pagar por los programas que dominan el mercado lo que es justo a sus creadores". Así de claro.

Al día siguiente por la mañana, llamamos a la puerta de una modesta casa de Sunyvale, en el corazón de Silicon Valley.

Son las diez de la mañana. Linus Torvalds abre, con la cara todavía untada de jabón de afeitar. "No soy muy madrugador", se siente obligado a decir. Gafas de Armani y barriga incipiente, el joven no se las da de estrella para nada. Ha venido a instalarse a la región, desde que terminó sus estudios, hace ahora un año, con su mujer, su bebé y sus dos gatos. "No es el dinero el que me ha atraído aquí, sino la mentalidad, propicia a la creación y a la innovación. Y, además, el clima".

Le ha contratado Transmeta, una estrella en ascenso del valle. La empresa trata de concebir una nueva generación de ratones para los PC multimedia. "He rechazado ofertas mucho mejores, porque no quería trabajar para empresas que se lucran con Linux". Ha aceptado, sin embargo, la oferta de Transmeta, una empresa que utiliza Linux y que, consciente de la valía de su fichage, le deja que dedique a su criatura una gran parte de su jornada laboral. Anécdota: Paul Allen, cofundador de Microsoft con Bill Gates, ha invertido dinero en Transmeta. "Sólo tiene una pequeña parte del capital", precisa Torvalds. Y es que Paul Allen ha abandonado Microsoft desde hace mucho tiempo.

La conferencia de San José era la primera aparición pública de Linus en Silicon Valley. "Quedé sorprendido por la afluencia, aunque ya he hablado en otras partes ante asambleas más numerosas todavía".

¿Se considera un profeta de la programación libre? "Ni muchísimo menos. Hago esto, porque me encanta. No pretendo que el `free software' sea un modelo universal para el desarrollo de la programación. Para proyectos no demasiado apasionantes, el dinero sigue siendo el mejor medio de motivar a los programadores".

¿Windows ganaría, si se convirtiese en un programa libre? "Evidentemente que sí. Pero dudo que las autoridades americanas obliguen a Microsoft a dar este paso. Y es una pena, porque lo importante para el usuario no es tener permanentemente nuevas versiones, sino una versión que funcione. Ahora bien, Microsoft no tiene interés alguno en reparar los fallos de Windows. Su prioridad es vender cada vez más productos nuevos".

Lo quiera o no, Torvalds tiende a convertirse en el mascarón de proa de la lucha anti-Microsoft en Silicon Valley.

Incluso en una especie de último recurso. Netscape (navegador de Internet) ha sido engullido, Apple ha tenido que pactar con el diablo y los NC (network computers), PC simplificados que pueden prescindir de Windows, tardan en nacer. La programación libre, el equivalente a una política de tierra quemada en términos de mercado, aparece, pues, como el último medio de resistir a la invasión "gatesiana".

Refiriéndose explícitamente a la experiencia Linux, Nestcape decidió, a finales de enero, difundir gratuitamente el código fuente de la próxima versión de su navegador. De hecho circula ya el rumor de que Apple podría convertir a Rhapsody, su nuevo sistema operativo, en un `free software'. Objetivo: aprovecharse de la inteligencia colectiva de Internet y demostrar, de nuevo, que los artistas programadores de la red son mejores que los mercenarios de Redmond, sede social de Microsoft en el Estado de Washington. El Silicon Valley, país en el que se pueden amasar fortunas, simplemente escribiendo unas cuantas lineas de un código de programación, no está precisamente a punto de convertirse al "socalismo de la programación".

Pero se huele en el aire cierta resistencia. Nace una especie de nuevo maquis.

Contracción de Linus y de UNIX, sistema operativo al que se asemeja el Linux.

Los efectos especiales de la película Titanic han sido realizado con ordenadores que utilizan Linux.

Programas libres a disposición de todos, Bernard Lang, Le Monde diplomatique, enero de 1998.

Empresa `high-tech', financiada con capital-riesgo

Linux reconstruye el Titanic

Digital Domain, una empresa estadounidense especializada en postproducción cinematográfica, utilizó ordenadores equipados con Linux, el popular sistema operativo de libre distribución, para la elaboración de los efectos visuales de la película Titanic. Así lo explica, en la revista Linux Journal, uno de los ingenieros encargados de la puesta en marcha del sistema informático que reconstruyó el viejo barco sobre los fotogramas de la película.

160 ordenadores equipados con microprocesadores Alpha a 433MHz fueron utilizados para recrear las figuras y objetos que componen el barco de la última superproducción de James Cameron. De ellos, 105 ejecutaban Linux, un sistema operativo basado en UNIX, en cuya elaboración han intervenido desinteresadamente programadores de todo el mundo.

Según Daryll Strauss, uno de los ingenieros de Digital Domain, la elección de Linux obedeció a criterios de coste y flexibilidad. La simulación digital del movimiento del agua requería alta capacidad de proceso y un elevado número de máquinas trabajando en paralelo. El coste de un sistema operativo para tantos ordenadores hizo que la empresa se planteara el uso de uno gratuito. La flexibilidad de Linux para trabajar con otros sistemas animó a la empresa a decidirse por él.

Sin embargo, la puesta en marcha de los equipos no estuvo exenta de problemas. Uno de los que se encontró el equipo de Digital Domain fue la aparición de un bug (error informático) que afectaba a determinados cálculos matemáticos en las plataformas Alpha y Linux. Strauss cree que dicho problema no fue detectado anteriormente porque la base instalada de Linux sobre Alpha es mucho menor que la de otros microprocesadores, como los de Intel Corporation.

No tardaron mucho en solventarlo y el ingeniero aseguró que la solución será puesta a disposición de la comunidad de usuarios de Linux, siguiendo el espíritu de evolución de este sistema operativo.

Aparte de este contratiempo, el rendimiento de las máquinas Linux fue más que aceptable: los equipos estuvieron trabajando "desde Junio a Agosto, 24 horas al día, 7 días a la semana" y, actualmente, Digital Domain estudia la posibilidad de adaptar a Linux parte de las herramientas que utilizan habitualmente en otros sistemas operativos.

Para Wook, el director del departamento de Ingeniería Digital de la empresa, la elección de Linux no fue fácil. A fin de cuentas, se trataba de apostar por un sistema no comercial y poner sobre él parte del peso de una postproducción millonaria. Sin embargo, admitió que "la satisfacción por el éxito conseguido hace olvidar el estrés de arriesgar tu trabajo y tu carrera ".

Efectos digitales
Digital Domain es una empresa especializada en efectos especiales por ordenador aplicados al cine y la televisión. Entre sus trabajos se encuentran películas como Apolo 13, Entrevista con un vampiro o Mentiras arriesgadas y sus fundadores son conocidos en el sector por su participación en la postproducción de Parque Jurásico, Terminator 2: el juicio final o ¿Quién mato a Roger Rabbit?.

Linux no es más que el núcleo del sistema operativo (normalmente llamado Kernel) que se encarga de acceder al Hardware, de manejar ficheros, de ejecutarlos de forma concurrente, de proveer de las herramientas necesarias para que las aplicaciones puedan acceder a sus servicios, de iniciar y asignar memoria a procesos y programas, de enviar y recibir paquetes de la red, etc.

De todas formas el núcleo no lo es todo, y una distribución sin aplicaciones no es nada. De este modo, una distribución de Linux no es mas que la unión de un kernel con una gran cantidad de aplicaciones.

Tanto el núcleo como las aplicaciones se pueden descargar perfectamente de un gran número de sites en Internet. Cuando se trata de la primera instalación de Linux en nuestro sistema, lo más normal es acudir a distribuciones en CD. Las distribuciones no son mas que colecciones de programas y ficheros, preparados y organizados para su instalación. Estas se pueden descargar a través de Internet, o realizar la compra del software en CD en los sites respectivos. Otra opción es obtenerlo en las múltiples revistas que existen en el mercado sobre Linux.

Lo mas recomendable para una primera instalación es obtener el sistema operativo en CD, y para posteriores actualizaciones hacer uso de Internet, es una mina inagotable de recursos.


Inventor de la Web y del HTML

Entrevista a Tim Berners-Lee


Inventor de la Web y del HTML

Es el "inventor y el protector" de la Web, como él

mismo dice. El británico Tim Berners-Lee definió, en 1989, el sistema que daría lugar a la World Wide Web, un conjunto de millones de páginas relacionadas entre sí y que cubre todo el planeta...



¿Cómo explica el crecimiento formidable de la Red en los últimos diez años?
Al comienzo, la Red se extendió gracias a la infraestructura de Internet ya existente, instalada en los años setenta. Cuando tuve la idea de la Red, a fines de los ochenta, las computadoras de numerosas universidades e institutos de investigación ya estaban conectadas entre sí para intercambiar información. Por consiguiente, hay que rendir homenaje a los pioneros que crearon ese entramado antes de que surgiera la Red.
La Red se expandió con suma rapidez porque estaba descentralizada y nadie controlaba su crecimiento. Cualquier persona podía crear un servidor o un explorador sin necesidad de pedir el menor permiso a una autoridad central. En todo el planeta hubo entusiastas que entendieron que la Red iba cambiar la vida y se dedicaron a desarrollarla.
El hecho de que la Red sea un espacio abierto constituye un poderoso atractivo. Cualquiera puede leer lo que hay en ella y aportar a su vez una contribución. En cierto modo, todo el mundo parte en pie de igualdad. Esta impresión de que ofrece oportunidades ilimitadas ha sido un elemento decisivo de su éxito.

¿Puede beneficiar la Red a los que se hallan al margen de la innovación tecnológica?
No cabe duda de que las desigualdades actuales son negativas para todo el mundo. Pero la innovación por sí sola no puede resolver los problemas globales. Son los individuos los que han de decidir por sí mismos y hacer grandes esfuerzos en todos los planos para encontrar soluciones. En el pasado contamos con numerosos instrumentos. Internet es uno más que puede ayudar a recoger esos desafíos.
La idea de la Red es crear un espacio de información en el que la gente puede comunicarse de manera muy precisa: compartiendo sus conocimientos. La Red es más una innovación social que técnica. No ha introducido ningún cambio fundamental en la manera de pensar, de leer y de comunicarse de los seres humanos, pero ha aumentado considerablemente sus posibilidades por el mero hecho de entregarles información. La Red permite una enormidad de cosas, desde la simple lectura de un periódico en un pueblo aislado hasta una mayor colaboración entre individuos de países diferentes.
Pero pese a esta amplia gama de posibilidades, aún no sabemos cómo sacarle el máximo de partido. Espero que la multiplicidad de opciones que ofrece a cada uno contribuya a reformar la sociedad.

En su obra Weaving the Web, alude usted al peligro de que la Red llegue a ser controlada por un grupo pequeño de empresas, o que se coarte su desarrollo por razones comerciales. ¿Cuáles serían las consecuencias de una situación de esta índole?
El peligro surge cuando grandes empresas que venden computadoras y programas empiezan a controlar la información que uno recibe por Internet. Al distribuir computadoras o exploradores gratuitos, algunas empresas pueden impedir a los usuarios el acceso a los programas de sus competidores. Es posible incluso que los proveedores de acceso a Internet lleguen a acuerdos comerciales con ciertos sitios o páginas para que sean más accesibles que otros. Ya está empezando a ocurrir.
Por un lado, a los usuarios les parece justo que una empresa influya en su acceso a Internet si les procura computadoras y programas gratuitos, pero, por otro, es muy importante garantizar el derecho de cada cual a acceder libremente a la información. Ninguno de esos aspectos debe prevalecer sobre el otro.
Ignoro hasta qué punto las personas se dan cuenta de que ciertos intereses comerciales influyen en sus posibilidades de acceso a los diversos sitios de la Red. Y es muy difícil encontrar un equilibrio entre el derecho de las empresas a brindar servicios gratuitos o muy baratos y el respeto de la libertad de acceso de los individuos. Encontraremos una solución de compromiso aceptable socialmente.
Hay otro peligro: cuando una empresa se encuentra en situación de monopolio, empieza a modificar arbitrariamente las normas informáticas universalmente aceptadas y obliga a los competidores a someterse a ellas en vez de producir ideas innovadoras para mejorar el producto. Esto puede afectar al desarrollo de la Red.

La Red ha permitido una circulación mucho mayor de la información que algunos países procuran regular y controlar. ¿Qué opina al respecto?
Sé que, efectivamente, ciertos países estudian la posibilidad o tratan de controlar el acceso a la Red de los particulares pero eso es muy difícil ya que, gracias a Internet, la información circula de múltiples maneras. Cada cual no es más que un punto microscópico en este vasto sistema. Además, el control de la información es nocivo para las relaciones entre el gobierno y su población, y, a la larga, para la estabilidad del país.
También se han formulado llamamientos para que se instaure una censura en la Red. Pero en la mayoría de los países occidentales la censura no es vista con buenos ojos. Sin embargo, se admite cada vez más que los padres tengan el derecho y el deber de impedir que sus hijos visiten ciertos sitios. Así, nuestro consorcio desarrolló sistemas como el PICS (una plataforma para la selección de contenidos en internet), que permite a los adultos controlar el acceso de los niños a diversos sitios.
Los múltiples instrumentos de filtrado disponibles en el mercado son mucho más eficaces que la censura del Estado. La ley de un país sólo puede censurar los sitios que están dentro de su territorio, mientras los filtros se aplican a sitios de cualquier procedencia. Fundamentalmente, incumbe a los ciudadanos elegir los mecanismos sociales y el tipo de regulación que desean.

A los internautas les inquieta cada vez más que se vulnere su vida privada. ¿Cómo resolver este problema?
El respeto de la confidencialidad implica que cada cual controle la utilización que pueda hacerse de sus datos personales. Los usuarios de la Red se preocupan porque piensan que una vez hayan encargado ciertos artículos a determinadas empresas, éstas dispondrán de información suficiente para perjudicarles o aprovecharse de ellos. El riesgo va, por ejemplo, desde la molestia que supone el convertirse en blanco de un envío abusivo de publicidad hasta la negativa por parte de las compañías a extenderte un seguro de vida. Es un asunto grave.
Los internautas deberían saber cómo utiliza cada sitio esos datos personales. Después de todo, su inquietud es un obstáculo para el crecimiento del comercio electrónico, y creo que los sitios deberían tener en cuenta el derecho de los consumidores a proteger su vida privada. Por ello nuestro consorcio elaboró el P3P (Plan de opciones en materia de confidencialidad). Cuando un internauta va a un sitio, este instrumento le permite comparar las prácticas de esa página con sus propias opciones. Si los usos del sitio no le convienen, no sigue adelante.
Un sitio responsable debería consignar sus reglas en materia de confidencialidad al pie de su página de acogida. En su defecto, convendría que una ley colmara ese vacío brindando el mejor nivel de protección posible a cada cual. Esos problemas se han resuelto en parte en Europa: las empresas deben guardar reserva sobre los datos de sus clientes, y no tienen derecho de intercambiarlos con los de otras bases de datos, cosa que en cambio es legal en Estados Unidos. Numerosos norteamericanos empiezan, por lo demás, a advertir la necesidad de que exista una mayor regulación y una mejor protección del individuo y de la sociedad.

Recientemente se ha observado una multiplicación de las patentes en el sector de Internet. ¿Cuáles son las consecuencias para la Red?
Esas patentes ponen en peligro la universalidad de la Red y entrañan un grave riesgo para las buenas ideas. Durante los cinco primeros años de vida de Internet, existía un consenso en el sentido de que una norma universal servía el bien común. Hoy, la Red abarca numerosos negocios. Ahora es posible hacerse rico inscribiendo patentes para controlar un trozo de ella. En ciertos casos, es incluso posible ganar dinero con una simple amenaza de iniciar una acción judicial. Para los que están empeñados en crear una Red universal, es un verdadero jarro de agua fría.
Los profesionales de la Red se reúnen a menudo para debatir posibles mejoras, tanto para los sistemas de videoconferencias como para el acceso de los países en desarrollo. Esos proyectos, que beneficiarían a un vasto público, suelen dejarse de lado por temor, o por simples rumores, de que ciertas empresas interpongan demandas reivindicando la patente de una determinada tecnología. En Estados Unidos –contrariamente a lo que ocurre en muchos otros países– es posible patentar un fragmento de programa.
Algunas patentes concedidas recientemente han sido puestas en el Indice por la comunidad de los internautas. En efecto, restringen el empleo de tecnologías que podrían acentuar la universalidad del Net. Espero que pronto sólo se registren las patentes que representen una auténtica innovación o ideas francamente extraordinarias. Aún no he visto ninguna en este sector.

El usuario no dispone de ningún medio para determinar la fiabilidad de la información en línea. ¿Puede cambiar esta situación?
Algunas tecnologías, que no utilizamos suficientemente, son capaces de dar indicios sobre la fiabilidad de un sitio o de un interlocutor. Pronto aparecerán instrumentos más perfeccionados. Con los exploradores de la nueva generación y la firma electrónica, dentro de poco estaremos en condiciones de verificar que un documento o un sitio es emitido efectivamente por la persona que creemos. Para el correo electrónico, los nuevos protocolos de comunicación, más seguros, permiten saber con certeza que nadie se ha introducido en él ni ha alterado el mensaje durante su transmisión. Queda por saber si una determinada fuente descubierta en la Red es o no digna de confianza. Es imposible. De momento nada permite comprobarlo. ¿Cómo creer a alguien que no se conoce? Es preciso que la gente sepa en quién puede confiar en la Red.
Veamos el ejemplo de un libro. Si uno lo lee porque personas de confianza se lo han recomendado, también se consulta un sitio a partir de consejos. La confianza se va instaurando de un individuo a otro. Hay que crear una “Red de la confianza”.
Al principio, algunas personas miraban la Red como un espacio anónimo, al margen de la realidad, y en el que no podía hacerse efectiva ninguna responsabilidad individual. Pero no es así. Cualquiera que envíe un mensaje ilegal existe en carne y hueso en alguna parte y está sometido a las leyes del lugar. Si alguien falsifica una transacción, el que sea electrónica no modifica para nada su responsabilidad ante la ley.

Ultimamente se ha observado un recrudecimento de los ataques de piratas informáticos. ¿Cómo reforzar las defensas de los sistemas informáticos?
Aunque Internet sea un sistema descentralizado, el principal peligro que lo amenaza es la falta de diversidad de los instrumentos de acceso a él. Si se analizan los recientes ataque de virus, se observará que se trata de las mismas computadoras que emplean los mismos programas, producidos por la misma firma, los que suelen ser presa de los piratas. Es cierto que el hecho de que muchas personas utilicen el mismo programa tiene grandes ventajas. Pero se requieren productos alternativos si uno desea ser capaz de resistir mejor a los virus.

Ha habido propuestas en el sentido de que los internautas de los países ricos paguen un tributo para poder conectar al resto del mundo…
Los países desarrollados tienen una gran deuda hacia los demás. Y los problemas de acceso a Internet se suman a esta deuda. Pero aplicar un impuesto a todos los internautas no es forzosamente una buena idea. Mejor sería actuar de manera selectiva. Se podría gravar a los grandes usuarios de Internet –como los que lo explotan ampliamente con fines comerciales.
Por otro lado, existe el riesgo de que un impuesto disuada a ciertos países de invertir en el desarrollo de Internet. El único país donde podría estudiarse seriamente la introducción de un impuesto es Estados Unidos. Otros países desarrollados, que tratan de ponerse al nivel de éste, tal vez sean reacios a aceptarlo.

En algunos países del Sur todavía es difícil conectarse a Internet por falta de líneas telefónicas. ¿Hay alguna solución?
En muchos países en desarrollo los servicios de telecomunicaciones son burocráticos y no aceptan competidores, cosa que facilitaría el acceso a Internet. Una de las soluciones sería utilizar la técnica de otro modo: habría que empezar por difundir las tecnologías inalámbricas para las comunicaciones básicas en las zonas rurales. Una vez instaladas las redes, esos emisores-receptores podrían converger con Internet eludiendo los ministerios responsables en la materia. En este sistema descentralizado no sería necesario dar una dirección de Internet ni un nombre de dominio. Existe ya una investigación en este ámbito y no cabe duda de que esas tecnologías pronto serán comercializadas y contribuirán a la utilización de Internet en el Sur. Sin embargo su expansión en ciertos países puede topar con los monopolios que detentan las empresas de telecomunicaciones, o con la voluntad de los gobiernos de controlar las comunicaciones. En ese caso, las Naciones Unidas debieran intervenir sensibilizando a sus Estados miembros respecto a las posibilidades que ofrecen dichas tecnologías.
También habría que financiar la traducción de la información que circula por Internet a diversos idiomas. Es importante que la Red respalde las culturas locales y no sirva únicamente para divulgar la cultura norteamericana. Hemos visto las dificultades con que se ha enfrentado el despegue de internet en Europa ya que los habitantes de ese continente no constituyen un enorme público monolingüe y monocultural. Será muy difícil franquear esta barrera en los países que practican una o varias lenguas poco habladas.

¿Puede hablarnos de la “Red semántica” en la que usted trabaja actualmente?
Tengo un sueño en dos partes para la Red. Primero veo que se convierte en un medio muy poderoso de comunicación entre los hombres. Luego, en la segunda parte, las computadoras cooperan. Las máquinas pasan a ser capaces de analizar todos los datos que circulan en la red: contenidos, enlaces y transacciones entre personas y computadoras.
La Red semántica irá a buscar la información a diversas bases de datos, tanto en catálogos en línea como en los sitios meteorológicos o bursátiles, y permitirá que toda esa información sea tratada por las computadoras. Hoy no es posible porque los datos en línea no son compatibles ni tienen el formato necesario para ser analizados directamente por las máquinas. Las páginas de la Red sólo están pensadas para la lectura humana.
La Red semántica responderá también a las aspiraciones de quienes desean contar con un programa de búsqueda que dé sólidos resultados. Los actuales entregan miles de páginas en respuesta a una sola pregunta. Ahora bien, es imposible estudiar el contenido de todas esas páginas. Con la Red semántica, el robot buscador te dirá: “He ahí un objeto que responde al criterio deseado, cosa que puedo garantizar matemáticamente.” En resumen, los robots de investigación se tornarán más fiables y más eficaces. Cuando mi sueño sea una realidad, la Red será un universo en el que la fantasía del ser humano y la lógica de la máquina podrán coexistir para formar una combinación ideal y poderosa.


Creador del Lenguaje "C"

Creador del Lenguaje "C"

Entrevista a Dennis Ritchie



Algunas personas adquieren importancia porque cambian la historia, otras hacen la historia. Dennis Ritchie pertenece al segundo grupo de personas. Cuando la mayoría de nosotros estábamos todavía aprendiendo a andar, él desarrolló el lenguaje "C", el lenguaje de programación más usado. No es necesario acentuar la relevancia de esta contribución a la humanidad...



Pregunta: De la misma manera que muchos niños quieren ser Superman, tú eres el ídolo de muchos programadores de C y fans de UNIX (entre otros) de todo el mundo. ¿Cómo te sientes siendo adorado por miles de programadores de C y UNIX?. Es completamente imposible imaginarnos a nosotros mismos sin UNIX ni C. Cuando creaste el C y empezaste a trabajar en el UNIX, ¿Esperabas que sería "EL FUTURO" de la informática?

Dennis: Estas dos preguntas son casi lo mismo, y además se formulan frecuentemente. Obviamente la gratificación y apreciación que mis colegas y yo hemos recibido son muy agradables, y sentimos que hemos ayudado a crear algo de auténtico valor. Pero no, no esperábamos realmente que esto sería "el futuro", ni siquiera anticipábamos la influencia eventual del trabajo. Fue llevado a cabo bajo el espíritu de "Vamos a construir algo útil" y al mismo tiempo hacer el trabajo que se necesitaba para ayudar a que otros participaran. Es importante tener en cuenta que aunque el segmento completo de Unix y C o C++ es significante, el mundo de las ciencias de computación, tecnología y productos reales es mucho mayor. Esto es verdadero tanto en la dirección académica del estudio de lenguajes de programación como en el área de software donde se mueve el dinero.

Pregunta: Si el UNIX es el presente y el pasado de los Sistemas Operativos, el C podría considerarse sin duda "EL LENGUAJE", a pesar de todos los lenguajes Orientados a Objetos que ha aparecido en los últimos años. ¿Cómo ves al C++ y al Java, y las guerras dialécticas que se dan a menudo entre programadores de C y C++ ?.

Dennis: El C++ se benefició enormemente del C, porque el C disfrutaba de una gran aceptación incluso antes del crecimiento del C++, así el C++ pudo utilizar el C como una base sobre la que construir el nuevo lenguaje y al mismo tiempo como una herramienta para crear sus compiladores. El C ha sido calificado (tanto en tono admirativo como despectivo) como un lenguaje ensamblador portable, y C++ intenta elevar su nivel a la orientación a objetos y a una aproximación más abstracta a la programación. Los fallos de los dos (en los estándares aparecidos últimamente) parecen ser una excesiva ornamentación y la acumulación de parafernalia. Ambos tienen un cierto espíritu de pragmatismo, de intentar entender lo que realmente se necesita. Java es, de forma manifiesta, un descendiente del C++, eliminando algunas características heredadas del C relacionadas con los punteros y, al mismo tiempo, añadiendo la idea (no tan nueva, pero ahora quizás realmente viable) de los ficheros objeto independientes de la máquina. Ahora que se ha visto envuelto en intrigas entre Sun y Microsoft (y también tiene sus propios problemas con la ornamentación) es difícil predecir hacia donde van a ir las cosas.

Pregunta: Ahora una pregunta hipotética: desde la perspectiva de hoy y después de tantos años de experiencia con el C, ¿Hay alguna cosa que hubieras hecho de manera diferente si tuvieras que diseñar el C desde el principio?

Dennis: Buscaría la forma (dadas las limitaciones de tiempo) de insistir en algo que ha estado en el estándar ANSI/ISO durante algún tiempo: declaración completa de tipos en los argumentos de las funciones, lo que el estándar de C de 1989 llama prototipos de funciones. Hay muchos pequeños detalles que son más confusos de lo que debieran haber sido. Por ejemplo, el significado de la palabra "static", que es utilizada de forma confusa para diversos fines. Todavía estoy indeciso en cuanto a la sintaxis de las declaraciones en el lenguaje, donde se utiliza una sintaxis que imita el uso de las variables que son declaradas. Es una de las cosas que provoca fuertes críticas, pero hay cierta lógica en ello.

Pregunta: Mientras que el C es un lenguaje establecido y completamente definido, los sistemas operativos todavía están evolucionando bastante. Surgen nuevas ideas conforme se hace más rápido y barato el hardware. ¿Cuáles son los aspectos clave en los que se basará el diseño de sistemas operativos en el futuro?. En particular, ¿Cuál es tu opinión en cuanto a los micro-nano-kernels frente a los diseños monolíticos?.

Dennis: No creo que este sea un aspecto importante visto desde esa perspectiva. Prefiero por encima de todo los entornos para aplicaciones que proporcionan un "espacio de nombres" común y mecanismos para el acceso a los recursos de forma estructurada en la linea del Unix (aquí incluyo a Linux), Plan 9 o Inferno. A mi me parece que la idea de micro o nano-kernels no es realmente importante en el uso real, al menos como base de un sistema de propósito general. En la práctica, parece ser que lo que sucede es que el micro-kernel se especializa para el macro-sistema que trabaja por encima suyo. Puede seguir siendo una herramienta útil para la estructuración interna del sistema, pero no vive por si mismo. Por supuesto (siendo el mundo complicado) hay casos en los que sistemas operativos muy sencillos son útiles para pequeños aparatos que no están orientados a un uso general ya sean para el escritorio o para una sala de ordenadores.

Pregunta: El UNIX es un sistema operativo con una larga historia. Además fue creado hace muchos años y desde entonces han evolucionado enormemente las capacidades y requerimientos de las redes, el hardware, los servicios y las aplicaciones. ¿Cuáles son las limitaciones actuales o problemas del UNIX de cara a las demandas del usuario en el presente y en un futuro próximo?.

Dennis: No veo ninguna limitación tecnológica fundamental, en términos del API básico del sistema. Hay, por supuesto, un enorme aspecto comercial/político en términos de lucha entre los vendedores de Unix comerciales y ahora entre los distintos suministradores de Unix "libres", incluyendo a Linux y *BSD.

Pregunta: Se ha generado recientemente una gran preocupación con el año 2000 que se nos acerca y el desastre potencial en Internet debido al famoso error del Y2K (año 2000). ¿Piensas que hay algún fundamento en las predicciones apocalípticas hechas por algunos expertos?.

Dennis: Ningún comentario inteligente sobre el tema, de verdad. Personalmente no estaré volando a las 23:59 del 31 de Diciembre de 1999, pero porque no he estado cerca de un avión en año nuevo nunca en mi vida; este hecho tiene, probablemente, poco que ver con el Y2K.

Pregunta: Ésta no sería una entrevista completa sin mencionár a Inferno, el sistema operativo en el que estás trabajando actualmente. ¿Cuáles fueron las razones principales para diseñar un sistema operativo totalmente nuevo, junto con Limbo, su propio lenguaje de programación?. También ¿por qué Inferno/Limbo si ya existe JavaVM/Java?, en otras palabras ¿Qué puede ofrecer Inferno que no tenga Java?

Dennis: El proyecto de Inferno fue idea de Phil Winterbottom y Rob Pike, y empezó justo antes de que se pusiera en marcha el tren (máquina publicitaria) de Java. Java tuvo su propio predecesor (llamado internamente Oak), pero en el momento en que Inferno se estaba gestando no había todavía ninguna razón para pensar que surgiría el fenómeno y, a pesar de que permanecíamos atentos al desarrollo de Java, era algo que todavía no había tomado forma. Pienso que es una de esas extrañas convergencias el hecho de que una venerable idea tecnológica (un lenguaje implementado por una máquina virtual portable) fuera revivida tanto por Sun como por nosotros. No obstante, la idea de Inferno era, desde su comienzo, más interesante en términos de tecnología de Sistemas Operativos (un lenguaje y un S.O. que trabajarían con hardware mínimo muy barato y simple y también como una aplicación bajo Windows, Unix o Linux). Al mismo tiempo uno tiene que reconocer su mérito a Sun por conectar mejor con el vasto y dinámico mercado de los navegadores de WWW.

Pregunta: Nos parece que el futuro de Limbo como lenguaje de programación está ligado a la expansión y popularidad de Inferno como sistema operativo. ¿Tendría sentido portar Limbo a otros sistemas operativos? ¿O son su diseño y objetivos demasiado dependientes de Inferno?.

Dennis: Tecnológicamente, Limbo no es particularmente dependiente de Inferno. En la práctica si lo es, simplemente porque un nuevo lenguaje depende del entorno en que se utiliza.

Pregunta: Observando tu carrera en Bell Labs, parece que hubieras trabajado en todo momento en los proyectos que realmente te gustaban, y presumo que esto también es verdad con Inferno. ¿Me equivoco si digo que realmente disfrutaste de tu trabajo con el diseño de UNIX y C?.

Dennis: Es cierto, he disfrutado con mi carrera en Bell Labs (que todavía continúa).

Pregunta: No puedo evitar hacer una comparación entre ti y toda la gente que está trabajando actualmente en proyectos sin ánimo de lucro, tan solo porque les gusta, aunque estoy seguro de que no rechazarían dinero por el trabajo que hacen gratis. ¿Te imaginarías a ti mismo involucrado en proyectos como Linux o similares si no estuvieras en Bell Labs? ¿Cómo ves a toda esta gente desde la perspectiva de un laboratorio innovativo de investigación con muchos años de experiencia sobre tus hombros? Puesto que nuestra revista es principalmente para usuarios de Linux no podemos olvidarnos de hacerte una pregunta sobre Linux. Lo primero, ¿Cuál es tu opinión sobre el impulso de Linux y la decisión de muchas compañías de empezar a desarrollar software para él (Bell Labs, por ejemplo: Inferno tiene su propia versión para Linux)?

Dennis: Permíteme que ponga juntas estas cuestiones. Pienso que el fenómeno Linux es muy agradable, porque se aprovecha fuertemente sobre la base que proporcionó Unix. Linux parece estar entre los descendientes directos de Unix con mejor salud, aunque también están los distintos sistemas BSD así como los productos más oficiales de los fabricantes de estaciones de trabajo y mainframes. No puedo evitar observar, por supuesto, que el mundo de los derivados del Unix con "código fuente libre" parece estar sufriendo de exactamente el mismo tipo de fragmentación y luchas que tuvieron y están todavía teniendo lugar en el mundo comercial.

Pregunta: Y la Gran pregunta sobre Linux ¿Has utilizado alguna vez Linux? Bien, si es así, ¿Qué opinión te merece?

Dennis: De momento no lo he utilizado de verdad -- en el sentido de depender de él para mi propio trabajo del día a día --, me temo que tengo que admitirlo. Mi propio mundo informático es una extraña mezcla de Plan 9, Windows e Inferno. Admiro mucho el crecimiento y el vigor de Linux. Ocasionalmente, la gente me hace la misma pregunta, pero planteada de manera que parecen esperar una respuesta que muestre celos o irritación acerca de Linux contra Unix tal y como se nos presenta bajo la marca de las empresas tradicionales. En absoluto; veo a ambos como la continuación de las ideas que pusimos en marcha Ken, yo y muchos otros hace muchos años.

Pregunta: Y Microsoft... ¿Qué opinas sobre el monopolio que tiene esta compañía sobre la informática de escritorio?. Antiguamente, las películas de ciencia ficción retrataban un mundo dominado por macro-computadoras que dominaban todos los aspectos de la vida diaria. La realidad actual nos ha mostrado un cuadro distinto. Los ordenadores, en muchos aspectos, han sido relegados a ser un simple electrodoméstico. Tú, que desarrollaste un sistema operativo pensado para programadores, que viviste ese ambiente de ciencia ficción y que imaginaste la situación actual de la informática, ¿Cómo te imaginas el futuro de la informática?, ¿Qué papel piensas que tienen en él Inferno y Linux?.

Dennis: Eso son dos cuestiones. Microsoft tiene cierto tipo de monopolio sobre la informática de escritorio, pero esa no es la única informática interesante en el mundo. Tanto las formas alternativas de suministrar software (como Linux) como las partes del mundo que no salen en las noticias tanto como Windows o las guerras de navegadores (como computación de altas prestaciones, computación muy fiable, computación muy pequeña) tendrán todas un espacio. Confío en que tanto Linux como Inferno van a prosperar.