lunes, 3 de septiembre de 2012

PIONEROS DE LA INFORMATICA

                                                         PIONEROS DE LA INFORMATICA

Al-Jwarizmi. (780 - 840)                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               
Mohammed Al-Jwarizmi nació alrededor del año 780 en Jwarizmi (la actual Khiva, en Uzbekistán), en Asia central. Su fecha exacta de nacimiento y muerte no son conocidas con exactitud, pero se sabe que realizó sus trabajos bajo los califatos deal-Ma`mun y al-Mu'tasim en Bagdad, alrededor de los años( 813 – 833) y probablemente murió en Bagdad alrededor del año 840 Su nombre significa Mohamed,( hijo de Moisés, padre de Jafar), el de Jwarizmi.Al-Jwarizmi fue matemático, astrónomo y geógrafo; se le considera el fundador de varias ramas de las matemáticas y el que usó por primera vez determinado conceptos básicos en esta ciencia.
 Sus ideas influenciaron en varios matemáticos medievales.Al-Jwarizmi es considerado el inventor del Álgebra, palabra que deriva de su libro Kitab al-Jabr wa-al-Muqabilah ("El Libro de las Ecuaciones y las Integrales"), que fue traducido al latín en el siglo XII. Es una compilación de soluciones de ecuaciones, de geometría elemental y de métodos relacionados.Por esta razón, aunque no haya sido él el inventor del primer algoritmo, merece que este concepto esté asociado a su nombre. Al-Jwarizmi fue sin duda el primer pensador algorítmico.




Blaise Pascal (1623-1662)
Nació en Clermont (Francia) el 19 de junio de 1623, quedó huérfano de madre a los 3 años. En1632 se trasladó a vivir a París. El padre de Pascal tenía unas opiniones poco ortodoxas sobre la educación, por lo que él se dedicaba a enseñar a su propio hijo. Unas de dichas opiniones era que Pascal no debía estudiar matemáticas, pero esto produjo en Pascal curiosidad que le llevó a estudiar las a espaldas de su padre.
En 1642 Blaise Pascal inventa la llamada pascalina, Pascal inventó una calculadora mecánica. Trabajó varios años en este proyecto hasta perfeccionarla, a la máquina se la conoció como la pascalina. Es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranajes. Se fabricaron varias versiones y Pascal en persona construyó al menos cincuenta ejemplares.
El primer uso de la pascalina fue en la Hacienda francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad. Debido a ello la pascalina estaba
destinada básicamente a solucionar problemas de aritmética comercial. En honor a ello uno de los lenguajes más populares lleva su nombre.

En la Pascalina, los datos se representaban mediante las posiciones de los engranajes, y los datos se
introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar que el cuentakilómetros de un automóvil.


Gottfried Wilhelm Leibniz (1646-1716)
También conocido como barón Gottfried Wilhelm von Leibniz. Filósofo, matemático y estadista  alemán, considerado como uno de los mayores intelectuales del siglo XVII. Nacido en Leipzig, se educó en las universidades de esta ciudad de Jena y de Altdorf. Desde 1666 (año en que fue      premiado con un doctorado en Leyes).Leibniz fue considerado un genio universal por sus Contemporáneos. Su obra aborda no sólo problemas matemáticos y filosofía, sino también teología, derecho, diplomacia, política, historia, filología y física.

En 1673 se trasladó a París realizando constantes viajes a
Inglaterra, en esa época fue cuando más se dedicó a estudiar matemáticas y ciencias. Fue cuando empezó a interesarse por la mecanización del cálculo Como demuestran sus palabras:    
 "Es despreciable que excelentes hombres pierdan horas trabajando como esclavos en las tareas de cálculo, las cuales podrían ser relegadas con toda seguridad a cualquier otra persona si las máquinas fueran usadas".
Diseñó la máquina aritmética. Tomando las notas y dibujos originales de Pascal, mejoró la
Pascalina añadiendo la función de multiplicar. El funcionamiento de este multiplicador mecánico
Era también a base de ruedas y engranajes.
Máquina de calcular de Leibniz (1694). Basada en la Pascalina. Incorporaba innovaciones
mecánicas como el tambor de dientes desiguales que permitía multiplicar un número por
rotaciones repetidas de la manivela principal.



Charles Babbage (1791 - 1871)
Nació en Teignmouth (Inglaterra), fue un niño enfermizo. Su padre era rico por lo que Babbage estudió en las mejores escuelas privadas. En seguida mostró interés por las matemáticas. Antes de entrar en la universidad estudiaba en su casa con la ayuda de un tutor de Oxford, para así lograr el nivel universitario. Así en 1810 ingresó en la Universidad de Cambridge.
Charles Babbage cuya idea fue automatizar ciertas tareas repetitivas para que se ocuparan de ellas las máquinas y no los matemáticos. En la década de 1820, Babbage comenzó a desarrollar
su máquina diferencial, un aparato que podía realizar cálculos matemáticos sencillos. Aunque Babbage empezó a construir esta máquina, no pudo terminarla por falta de fondos. (Sin embargo, en 1991 unos científicos británicos que siguieron los dibujos y las especificaciones detalladas de Babbage, construyeron esa máquina diferencial: la máquina funcionaba a la perfección y hacía cálculos exactos con 31 dígitos, lo que demostraba que el diseño de Babbage era correcto.) En la década de 1830, comenzó a desarrollar su máquina analítica, que fue concebida para llevar a cabo cálculos más complicados, pero este aparato no se construyó nunca. El libro de Babbage, Tratado de economía de máquinas y de manufacturas (1832), inició el campo de estudio conocido actualmente como investigación
operativa.
La máquina analítica de propósito general, que podía ser programada por el usuario para
ejecutar un repertorio de instrucciones en el orden deseado, de naturaleza mecánica, incluye la
mayoría de las partes lógicas de un ordenador actual. Capaz de almacenar 1000 números de 50
dígitos cada uno.

Augusta Ada King, Condesa de Lovelace  (1815-1842)
Ada Byron nació el 10 de diciembre de 1815. Hija del poeta Lord Byron, su madre hizo todo lo posible para que no siguiera los pasos de su padre por lo que desde pequeña la guió por el camino de las ciencias y las matemáticas. Con 17 años Ada conoció a Mary Somerville que la animó en sus estudios matemáticos. Durante una cena organizada por Somerville en noviembre de 1834, Ada oyó a Charles Babbage hablar de sus ideas sobre la máquina analítica, y a partir de ahí surgió la colaboración entre ambos. Babbage trabajó sobre este proyecto y realizó una conferencia sobre sus trabajos en un seminario de Turín (Italia) en 1840, un matemático italiano llamado Mena brea escribió un artículo en francés sobre todo lo dicho por Babbage. Ada, que estaba casada desde 1843 con el Conde de Lovelace y era madre de 3 niños, tradujo este artículo, y cuando se lo enseñó a Babbage éste le sugirió que añadiera sus propias ideas. El resultado fue
que las notas que añadió Ada eran tres veces más del artículo original. En dichas notas, que fueron publicadas en 1843, ella predijo que la máquina de Babbage podría ser usada tanto para un uso práctico como científico.
Ada sugirió a Babbage escribir un "plan" para que la máquina calculase números de Bernoulli, este "plan" es considerado el primer "programa de ordenador", y por ello se considera a Ada el primer programador de la historia. Existe un lenguaje de programación desarrollado por el departamento de defensa de USA en 1979 que lleva su nombre: ADA Fue una mujer adelantada a su tiempo, que lamentablemente murió muy joven (con 37 años).

George Boole (1815 - 1864)
Boole fue un niño inteligente, y su primer interés fue hacia los idiomas, siendo capaz de dominar el latín completamente con 12 años. Aunque no había estudiado para ello, empezó dedicándose a la enseñanza siendo a los 16 años profesor auxiliar en un colegio. También pensó realizar la carrera eclesiástica, pero en 1835 decidió abrir su propio colegio y fue cuando empezó a estudiar matemáticas por su cuenta, estudiando los trabajos de Laplace y Lagrange. Se encaminó hacia el Álgebra publicando una aplicación de métodos algebraicos para la resolución de ecuaciones diferenciales por el que recibió la medalla de la Real Sociedad Matemática de Londres.

En 1849 fue nombrado catedrático de matemáticas en el Queens Collage, donde ejerció la enseñanza el resto de su vida. En 1854 publicó sus estudios sobre las teorías matemáticas de lógica y probabilidad. Boole redujo la lógica a una álgebra sencilla, naciendo así lo que se conoce como álgebra booleana, la cual influyó en el desarrollo de la informática.
Boole murió a los 49 años por causa de una pulmonía. Aunque Boole tiene otros muchos estudios
en el universo de las matemáticas sin duda alguna se le recordará por su álgebra, que fue un paso
fundamental en el desarrollo de las computadoras.

 Leonardo Torres Quevedo (1852 - 1936)
Nació en Santa Cruz de Iguña (Santander), fue el ingeniero español más reconocido. Gran científico, desarrolló muchos inventos reconocidos internacionalmente, sobre todo en el campo de la automática, considerándosele como precursor de la informática.

En su juventud residió en Bilbao en donde en 1868 acaba sus estudios de Bachillerato marchándose a Paris durante dos años para continuar con sus estudios. En 1870 se trasladó, junto con su familia, a vivir a Madrid, y un año más tarde ingresó en la Escuela Oficial del Cuerpo de Ingenieros de Caminos, finalizando sus estudios en 1876. Al término de dichos estudios se
dedicó a ejercer la ingeniería y a viajar por toda Europa adquiriendo más conocimientos. En 1885 regresó a España iniciando así su gran trayectoria científica e inventiva. En 1887 Torres Quevedo empezó la investigación y desarrollo de un trasbordador, realizando el primero en su propia casa. En 1907 construyó el primer trasbordador apto para el transporte humano, lo hizo en el Monte Ulía (San Sebastián). A partir de aquí construyó muchos otros, mediante la Sociedad de Estudios y Obras de Ingeniería de Bilbao, por ejemplo en Chamoix, o Río de Janeiro. Pero el más famoso fue el construido sobre las Cataratas del Niágara llamado "Spanish  Aerocar", que se inauguró en pruebas en 1916, siguiendo hoy en día en pleno funcionamiento. En 1894 presentó a la Real Academia de Ciencias una memoria sobre las máquinas algebraicas, incorporando el diseño de una, que más adelante construyó. Una máquina analógica que resolvía ecuaciones algebraicas y para la que inventó un "husillo sin fin". En 1905 construyó el primer dirigible español, llamado el "España". En 1903, Torres Quevedo diseñó y construyó el primer aparato de radiocontrol del mundo, el telekino, presentándolo en la Academia de Ciencias de Paris.
Otros de los inventos de Torres Quevedo fueron los jugadores ajedrecistas, que se consideran
como precursores de la inteligencia artificial. 

 Hermann Hollerith (1860-1929).
Inventor estadounidense nacido en Nueva York, estudió en la Universidad de Columbia. Con el fin de buscar un método más rápido para calcular el censo estadounidense cuyo recuento en
1880 había durado más de 7 años también aplicó el concepto del telar de Jacquard a la informática.

Hollerith usó tarjetas para almacenar los datos de información y una máquina compilaba los resultados mecánicamente. Cada perforación sobre una tarjeta representaba un número y las combinaciones de dos perforaciones representaban una letra. En una tarjeta podían almacenarse 80 variables. En seis semanas el censo estuvo listo y además, las tarjetas se podían utilizar como un método para almacenar datos y evitar errores de cálculo. Con su lector de tarjetas perforadas
se fundó la empresa Tabulating Machine Company que en 1924 se convirtió en IBM (International Business Machines Corporation). La calculadora de Hollerith mediante tarjetas perforadas, coincidió en el tiempo con la expansión de las máquinas de escribir Remington y los teléfonos de AT&T y Bell.

 Vannevar Bush (1890-1974)
Nació en Everett (Massachusetts) y estudió en el Tufts College de la Universidad de Harvard y en el Instituto de Massachusetts de Tecnología (MIT), fue un niño enfermizo pero con un gran espíritu de superación. En la escuela ya demostraba su gran aptitud para las matemáticas. Ingresó en el Tufts College para estudiar ingeniería, sus estudios los pagó la mitad con una beca y la otra mitad trabajando como asistente en el departamento de matemáticas.

Durante la Primera Guerra Mundial, un grupo de científicos interesados en ayudar al gobierno norteamericano formó el Consejo de Investigación Nacional (NRC), cuyo propósito era mejorar el armamento. Una de sus tareas fue el desarrollo de dispositivos para la detección de submarinos, que fue desarrollado por Bush a partir de 1917. Al finalizar la guerra Bush volvió al MIT para dedicarse al desarrollo de computadoras. En 1927 desarrolló su primera máquina analógica para resolver sencillas ecuaciones. Bush continuó con sus ideas y así en 1930 desarrolló el Analizador Diferencial, un dispositivo mecánico para la resolución de ecuaciones diferenciales. En 1935, Bush desarrolló una segunda versión, cuyos componentes eran electromecánicos, y la entrada de instrucciones a través de tarjetas perforadas. Durante la Segunda Guerra Mundial, Bush trabajó como consejero para el presidente de los EE.UU. Roosevelt, dentro de la investigación militar. En 1945, publicó un artículo titulado "Cómo
podemos pensar", en donde describe un máquina teórica llamada "MEMEX", que se considera
como la base teórica del hipertexto, el lenguaje de programación de Internet.
Diseño del MEMEX.

Norbert Wiener (1894 - 1964)
Nació en Columbia (EE.UU), fue un niño prodigio y a los 11 años ingresó en la universidad; estudió en las universidades de Cornell, Cambrigde, Göttingen y Harvard, en esta última obtuvo su doctorado en matemáticas con 19 años. Durante la Segunda Guerra Mundial, Wiener trabajó para su gobierno en proyectos relacionados con la defensa antiaérea. Fue cuando se dio cuenta de la necesidad de mejorar las computadoras que había en aquella época, se encaminó hacia la comunicación de información y para ello en el desarrollo de los sistemas de redes. Tras la guerra Wiener continuó contribuyendo con nuevas ideas en diversos campos, incluyendo la teoría de la predicción matemática y la teoría cuántica (debatiendo con físicos como Niels Bohr, y Albert Einstein En 1942, durante un congreso en Nueva York, conoció al científico Rosenblueth, y empezó a investigar acerca de los robots y sistemas automáticos, sentando así los fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por Wiener en 1947, y que procede del griego "kybernetes" y que significa piloto. En 1948 publicó su obra "Cibernética: control y comunicación en el animal y en la máquina", en donde desarrolla toda la teoría de la cibernética.

Howard Hathaway Aiken (1900 - 1973)
Nació en Nueva Jersey (EE.UU), se crió en Indianápolis, donde estudió en Arsenal Technical
School, graduándose en 1919. Tras ello estudió en la universidad de Wisconsin, en donde se especializó en electrónica. Mientras estudiaba estuvo trabajando como ingeniero operario en la Madison Gas and Electric Company desde 1919 a 1923. Se graduó como ingeniero electrónico en 1923. Tras esto trabajó en la Westinghouse Electric Manufacturing Company, mientras se preparaba para su postgraduado en la universidad de Harvard, donde obtuvo su M.A. en 1937 y el Ph.D en física en 1939. Aiken permaneció en Harvard para enseñar matemáticas, primero como instructor de facultad (de 1939 a 1941) y después como profesor asociado.

En 1937, antes de la guerra, Aiken presentó el proyecto de construcción de una computadora, para el que obtuvo el apoyo de IBM. Así nació la MARK I (o IBM ASCC), terminada en 1944 con un coste de 250000$. Inmediatamente finalizada la marina de los EE.UU requisó tanto a la máquina como a su inventor para usarlos durante la Segunda Guerra Mundial, Aiken alcanzó el grado de Comandante, y la MARK I se usó para el cálculo de las tablas navales de Artillería. Además de la MARK I, Aiken construyó más computadoras: MARK II (1947), MARK III y MARK IV (1952).Tras la guerra, en 1946, Aiken volvió a Harvard como profesor de matemáticas. Además, fue nombrado director de los nuevos laboratorios de informática de la universidad en 1947, Aiken contó con la colaboración de Grace Hooper, encargada de la programación de la MARK I. En 1964, Aiken recibió el premio Memorial Harry M. Goode, de la Computer Society, por su contribución al desarrollo de las computadoras automáticas, y por la construcción de la MARK I. 

 John Von Neumann (1903 - 1957)
Nació en Budapest (Hungría), su nombre verdadero es Margittai Neumann János (los húngaros colocan sus apellidos antes que el nombre), convirtiéndose en Jhohann Neumann von Margitta cuando se trasladó a Alemania y que luego se lo recortaron quedándose en Johann von Neumann, para finalmente conocérsele mundialmente como John Von Neumann, al llegar a EE.UU.John von Neumann fue un niño prodigio, al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de los EE.UU, hacia 1943 von Neumann empezó a interesarse por la computación para ayudarse en su trabajo, en aquellos años había numerosas computadoras en construcción, como por ejemplo la Mark I (Howard Aiken) o Complex Computer (George Stibiz), pero con la que von Neumann se involucró fue el ENIAC (junto con John Presper Eckert y John W. Mauchly). Una vez finalizada la construcción del ENIAC y viendo sus limitaciones, decidieron definir todo un nuevo sistema lógico de computación basado en las ideas de Turing y se enfrascaron en el diseño y la construcción de una computadora más poderosa el EDVAC (Electronic Discrete Variable Arithmetic Computer). Pero hubo problemas legales con la titularidad de lo que hoy conocemos como Arquitectura de Von Neumann. Esto produjo que el diseño se hiciera público, al final Eckert y Mauchly siguieron su camino y Von Neumann regresó a Princeton con la idea de construir su propia computadora.

En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las bases de la computadora actual, conociéndose como "arquitectura de Von Neumann". Otras de sus contribuciones en computación fueron por ejemplo el uso de monitores para visualizar los datos y el diagrama de flujo.


 Alan Mathison Turing (1912 - 1954)
Nació en Londres (Gran Bretaña), desde muy temprana edad Turing demostró su inteligencia. A los 3 años tenía una inusual capacidad para recordar palabras y a los 8 años se interesó por la química montando un laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad para realizar cálculos mentalmente. En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por el ejército británico para descifrar los códigos emitidos por la máquina
Enigma utilizada por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en 1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en 1946. En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia 1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y biblioteca de software. También describió las ideas básicas de lo que hoy se conoce como red neuronal. Abandonó la NLP en 1948. Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado en el código empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este artículo: "Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas?". Turing propuso un método llamado el test de Turing para determinar si las máquinas podrían tener la capacidad de pensar. En 1951, es nombrado miembro de la Sociedad Real de Londres por sus contribuciones científicas. Y en su honor, la Association for  Computing Machinery, llama "Turing Award" a su premio más importante, el cual se otorga desde 1966 a los expertos que han realizado las mayores contribuciones al avance de la computación. La vida de Alan Turing estuvo rodeada de un halo de misterio y extrañeza, acusado de "actos de grave indecencia" a causa de su homosexualidad fue obligado a tomar estrógeno como condena, pero su muerte no le anduvo a la zaga, el juez certificó suicidio, pero su madre sembró la duda al afirmar que solía manejar cianuro. Al lado de la cama del muerto había media manzana a la que Turing había dado tres mordiscos (una manzana con tres muescas es el logotipo de los ordenadores Macintosh de Apple).


Claude Elwod Shannon (1916 - 2001)
Nació en Michigan (EE.UU), tras obtener los títulos en Matemáticas e Ingeniería en la
universidad de Michigan, ingresó en el MIT (Massachusset Institute of Technology) para
continuar en sus estudios. Fue allí donde realizó una tesis con respecto el uso del álgebra de Boole para la construcción de máquinas lógicas. Investigador de los laboratorios Bell y profesor en el MIT y autor de la "Teoría matemática de la información" (1948), se le considera el padre de las comunicaciones digitales y de otras muchas aportaciones científicas en el campo de los
ordenadores, las comunicaciones digitales y la inteligencia artificial, tales como la optimización
en la transferencia de datos punto a punto, el ancho de banda, la compresión de datos para la
transmisión de información digital, el uso de la lógica booleana para describir cómo una máquina recibe información, la criptografía, etc. Shannon fue el primero en identificar el bit como la unidad fundamental de datos y, por tanto, la unidad básica de la computación. Entre sus inventos se encuentran desde un ratón mecánico capaz de aprender cómo se sale de un laberinto hasta una máquina de jugar al ajedrez precursora del famoso Deep Blue, la máquina que derrotó a Kasparov.


Grace Murray Hopper (1906 - 1992)
Nació en Nueva York (EE.UU), desde muy pequeña demostró una gran aptitud para las ciencias y las matemáticas. Y tanto su abuelo como su padre siempre la animaron a que ella estudiara.
También le atrajo mucho cualquier tipo de dispositivo mecánico, y así lo demuestra cuando con 7 años desarmó todos los relojes de su casa para ver si podía así entender su funcionamiento. En el colegio ya destacaba como alumna en matemáticas. En 1943 decidió unirse a las fuerzas armadas en plena Segunda Guerra Mundial, para lo cual tuvo que obtener un permiso especial. Asistió a la Escuela de cadetes navales para Mujeres, graduándose la primera de su clase en 1944 y obteniendo el rango de teniente. Fue enviada a Harvard para trabajar en el Proyecto de Computación que dirigía el comandante  Howard Aiken, la construcción de la Mark I. Tras el final de la Segunda Guerra Mundial Hooper quiso seguir en la Armada pero como ya había cumplido los 40 años en 1946 (el límite eran 38) fue rechazada permaneciendo en la reserva. Por lo que siguió en Harvard como Investigadora junto a Aiken. Desarrolló varias aplicaciones contables para la Mark I, que estaba siendo utilizada por una compañía de seguros. Permaneció en Harvard hasta 1949, cuando Hopper empezó a trabajar en la Eckert - Mauchly Corporation en
Filadelfia (compañía fundada por los inventores del ENIAC, Eckert y Mauchly),
que en esos momentos estaban desarrollando las computadoras BINAC y UNIVAC I. Trabajó en esa compañía y en sus sucesoras hasta su retiro en 1971. Allí fue donde Hopper realizó sus mayores contribuciones a la programación moderna. En 1952, desarrolló el primer compilador de la historia, llamado A-0, y en 1957 realizó el primer compilador para procesamiento de datos que usaba comandos en inglés, el B-0 (FLOWMATIC), cuya aplicación principal era el cálculo de nóminas. Tras su experiencia con FLOW-MATIC, Hopper pensó que podía crearse un lenguaje de programación que usara comandos en inglés y que sirviera para aplicaciones de negocios. La
semilla de COBOL había sido sembrada, y 2 años después se creó el comité que diseño el famoso lenguaje. Aunque Hopper no tuvo un papel preponderante en el desarrollo del lenguaje, fue miembro del comité original para crearlo, y el FLOW-MATIC fue una influencia tan importante en el diseño de COBOL, que se considera a Hopper como su creadora. Hopper permaneció en la reserva de la Armada hasta 1966, cuando tuvo que retirarse con el grado
de Comandante, por haber alcanzado el límite de edad nuevamente. Pero este retiro duró poco ya
que la Armada la volvió a llamar en 1967 para que estandarizara los lenguajes de alto nivel que
usaban. Se reincorporó y permaneció en el servicio durante 19 años más. En 1986, Hopper se
retiró de la Armada de manera definitiva, siendo en ese momento la oficial de más edad de la
Armada de los EE.UU. Tras su retiro, se incorporó como asesora en Digital Equipment Corporation, participando en foros industriales, dando unas 200 conferencias por año y
participando en programas educativos hasta 1990, cuando la "increíble Grace", que era como la
conocían sus amistades, se retiró definitivamente. Fragmento de código del Flow-Matic
A lo largo de su vida, Hopper recibió numerosos reconocimientos, que incluyen más de 40
doctorados honoris causa, la Medalla Nacional de Tecnología, la Medalla Wilbur Lucius Cross de Yale, el rango de Comodore en 1983 y el de contra-almirante en 1985.

John W. Mauchly (1907 - 1980)
John consiguió una beca para estudiar ingeniería, se dedicó a estudiar física obteniendo el doctorado en 1932. En 1941, en plena Segunda Guerra Mundial, Mauchly recibió un cursillo  sobre electrónica para utilizarla para la defensa (ejército) en la universidad  de Pensylvania Mauchly, empezó a desarrollar ideas para la construcción de computadoras, y fue entonces cuando John Eckert (que fue uno de sus instructores en el cursillo) se interesó por dichas ideas, y en 1943 se aprobó la construcción del computador ENIAC (en donde colaboró activamente Eckert), cuya función específica sería el cálculo de trayectorias de las bombas. Hasta 1946 no se terminó de construir. Mauchly y Eckert abandonaron la universidad de Pensylvania en 1946 fundando la empresa "Control Electrónico" (Eckert-Mauchly Corporation) . La compañía aérea Northrop les encargó la "Computadora Binaria Automática" (BINAC) construida en 1949. En el BINAC, los datos eran almacenados sobre cinta magnética en vez de en tarjetas perforadas. Otra de las computadoras que construyeron fue la "Computadora Universal Automática" (UNIVAC), que fue la primera computadora que se comercializó en EEUU (se vendieron 46 unidades). Pero Mauchly y Eckert eran mejores ingenieros que economistas por lo que su empresa fue absorbida por otra compañía. En 1965 Mauchly abandonó la empresa.

 En 1966 recibió el premio concedido por la Computer Society por su aportación al desarrollo de las computadoras. John W. Mauchly - John Presper Eckert



John Presper Eckert (1919 - 1995)
Nació en Filadelfia (EE.UU), en 1937 ingresó en la Universidad de Pensylvania para estudiar ingeniería eléctrica, terminando la carrera en 1941 con excelentes calificaciones. Tras su graduación le dieron un puesto como instructor de cursillos de electrónica para las investigaciones que se llevaban a cabo con motivo de la Segunda Guerra Mundial. Uno de sus alumnos de dichos cursillos fue John Mauchly (que era 12 años mayor que Eckert). Eckert enseguida se interesó por las ideas que tenía Mauchly sobre la construcción de una computadora. De la colaboración de ambos surgió el proyecto ENIAC. En Mayo de 1943 designaron a Eckert ingeniero principal del proyecto cuya tarea específica era diseñar los circuitos electrónicos. Uno de los problemas que solucionó fue conseguir que las 18000 válvulas de las que estaba compuesto el ENIAC tuvieran una vida larga para que así el ENIAC fuera viable.
También se encargó del diseño de las calculadoras en base 10 para el ENIAC. En octubre de 1946 Eckert abandonó la universidad de Pensylvania, al igual que Mauchly. Creando juntos la empresa "Control Electrónico" (Eckert-Mauchly Corporation) construyendo diversas computadora como el BINAC (Computadora Binaria Automática) en la que los datos eran almacenados en cintas magnéticas, o el UNIVAC (Computadora Universal Automática) que fue la primera que se comercializó en EEUU. Pero tuvieron problemas económicos con lo que su empresa fue absorbida en 1950 la Rand Remington Corporation, Eckert permaneció en la compañía pasando a ser un ejecutivo de la misma. Se fusionaron con Burroughs Corporation creándose así Unisys, Fue otorgado la Medalla Nacional de Ciencia en 1969 (el más prestigioso en EEUU) por su participación en la Informática. ENIAC es una sigla de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos.




Jack St. Clair Kilby (1923 - 2005)
    Jack St. Clair Kilby, nació el 8 de Noviembre de 1923 en Jefferson (Estados Unidos) y fue el padre de los microchips y la microelectrónica. Ingeniero Electrónico (Universidad de Illinois y
master en la de Wisconsin), sus descubrimientos físicos y electrónicos, sentaron las bases de los
procesadores de los ordenadores. En sus palabras, el nunca imaginó mientras avanzaba en sus
descubrimientos, la magnitud de estos: “Yo creí entonces que el microprocesador sería importante, pero no podía imaginar en qué forma crecería la industria electrónica debido a él”. Por sus méritos, Kilby fue galardonado con el Premio Nóbel de Física en el año 2000. Aunque parezca un dato normal y corriente, cabe recordar que Kilby recibió el Nóbel en Física sin ser físico. Cuenta la historia que el Instituto Tecnológico de Massachusetts rechazó a Kilby por sus bajas notas en matemática. Las investigaciones las realizó bajo la responsabilidad de la empresa para la que trabajaba desde el año 1958, Texas Instruments. El microchip fue desarrollado un año más tarde, en 1959. Durante su carrera, Jack patentó más de 60 descubrimientos que fueron
incorporados a la industria. Jack Kilby murió de cáncer un 23 de Junio de 2005, a los 81 años de edad. En el salón de la Fama de Inventores Estadounidenses, su retrato reposa junto al de Edison. Podemos citar par resumir su importancia en la informática, palabras de la Real Academia Sueca de Ciencias: “Sin Kilby, no hubiera podido ser posible el construir las computadoras personales que tenemos ahora”.

Douglas Carl Engelbart (1925 –Ac.)
Douglas Carl Engelbart (nació en Oregón, Estados Unidos, el 30 de enero de 1925) es un inventor estadounidense, descendiente de noruegos. Es conocido por inventar el ratón, y es un pionero de la interacción humana con las computadoras, incluyendo el hipertexto y las computadoras en red. Engelbart recibió un título de grado en ingeniería eléctrica de la Oregon State University en 1948, un título de grado en ingeniería de la Universi  dad de Berkeley en 1952 y un doctorado de UC Berkeley en 1955.

En otoño de 1968, en una conferencia de expertos en informática, Doug Engelbart hizo una presentación que duró 90 minutos. Además de hacer la primera demostración pública del ratón,incluyó una conexión en pantalla con su centro de investigación, es decir, fue la primera  vídeo-conferencia de la historia. Como operario de radar en las Filipinas durante la Segunda Guerra Mundial, Engelbart se inspiró en un artículo de Vannevar Bush, 'As We May Think', para buscar la manera de usar las computadoras para mejorar la sociedad. Cuando terminó la guerra, y siguiendo esta idea, Engelbart renunció a su trabajo como ingeniero y se fue a estudiar a UC Berkeley. Allí trabajó en la versión previa de Internet, la red militar ARPANET. Engelbart fue la fuerza motriz detrás del diseño del primer sistema en línea, On-Line System (también conocido como NLS), en el Stanford Research Institute. Su oficina fue el segundo nodo de la red. Junto con su equipo en el Augmentation Research Center desarrolló varios elementos básicos de la interfaz humana de las computadoras actuales, como pantallas con imágenes en bits, ventanas múltiples, y software multiusuario. También fue el co-inventor del mouse, del que nunca recibió regalías.

Dennis Mac Alistair  Ritchie (1941 –2011.)
Dennis Mac Alistair Ritchie, es un científico computacional estadounidense cuyo mayor aporte a la informática ha sido la creación del lenguaje de programación C. Es además, uno de los desarrolladores del sistema Unix. Nacido en Bronxville (Estados Unidos) en 1941, Ritchie es uno de los mayores colaboradores para el desarrollo y evolución de los sistemas operativos.Luego de graduarse en Harvard, desarrolló su carrera laboral principalmente en los Laboratorios Bell, y también trabajó en empresas como ALTRAN o Lucent. Primer En el año 1972 creó, junto a Kem Thompson, el lenguaje de programación C, hecho que lo pondría en la historia de la informática. El lenguaje C se ha ubicado, junto a sus derivados (C++, Java, etc.) como el lenguaje referente para el desarrollo de Sistemas Operativos y programación de bajo nivel. Sus principales características indican que es un lenguaje simple, de bajo nivel de abstracción y extremadamente flexible. A pesar de ser referente en la materia, ha sido utilizado posteriormente para innumerables desarrollos más allá de la creación de sistemas de base. Fue desarrollado en su mayoría en los laboratorios de Bell y su nombre se debe a que muchas de sus características fueron inspiradas de un lenguaje anterior denominado "B". En paralelo al desarrollo del
lenguaje de programación, se gestaba en los laboratorios de Bell un Sistema Operativo que
cambiaría la historia de la informática: Unix. Ritchie fue uno de los desarrolladores de este proyecto que finalizó con Unix, el primer Sistema Operativo multitarea y multiusuario, presentado al público a principios de la década del '70. Según Ritchie, "UNIX es basicamente un Sistema Operativo simple, pero debes ser un genio para entender su simplicidad" ("UNIX is basically a simple operating system, but you have to be a genius to
understand the simplicity."). Luego de su desarrollo y publicación, importantes empresas adoptaron a Unix como parte de su estrategia y desarrollo. Entre ellas, se destacan Sun Microsistems, IBM y MAC OS. Hoy, son muy utilizados sistemas derivados de Unix, como BSD o Linux, entre otros. Dennis ha sido galardonado con innumerables premios en su carrera, entre los que se destacan el "Premio Turing"  en 1983 y la Medalla Nacional de Tecnología de los Estados Unidos en 1998.


Vinton 'Vint' G. Cerf (1943 – Ac.)
Vinton 'Vint' G. Cerf es un científico de la computación estadounidense, considerado uno de los 'padres' de Internet. Nacido en Connecticut (Estados Unidos) en 1943, de origen judío, se graduó en matemáticas y ciencias de la computación en la Universidad de Stanford (1965). Durante su estancia posterior en la Universidad de California (UCLA) obtuvo la maestría en ciencias y el doctorado. A principios de los años 70 comenzó a trabajar con Robert Kahn en el desarrollo de un conjunto de protocolos de comunicaciones para la red militar, financiado por la agencia gubernamental DARPA. El objetivo era crear una "red de redes" que permitiera interconectar las distintas redes del Departamento de Defensa de los Estados Unidos, todas ellas de diferentes tipos y que funcionaban con diferentes sistemas operativos, con independencia del tipo de conexión: radioenlace  s, satélites y líneas telefónicas.

John Berners-Lee (1955- Ac.)
Sir Timothy "Tim" John Berners-Lee, OM, KBE (Tim BL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció en Ingeniería Física en 1976 en el Queen's College de la Universidad de Oxford. Es considerado como el padre de la Web. En marzo de 1989, Tim junto a un grupo de compañeros desarrolló la iniciativa de crear la World Wide Web, cuya idea principal era la creación de una red con contenidos de formato digital para compartirlos globalmente a través de Internet. Es decir, Tim Berners- Lee no inventó el Internet, sino que inventó una serie de protocolos y estándares para utilizar en cualquier red que, permitieron la popularización de Internet y específicamente de los navegadores y las páginas web. Los principales conceptos que desarrolló Tim, con su equipo, son HTML, HTTP y URL. El primero, Hyper Text Mark up Language (lenguaje de etíquetas de hipertexto), es el principal lenguaje de programación para el desarrollo de páginas web. A pesar de la creación de diversos lenguajes que se utilizan hoy en día, html, sigue siendo la base de cualquier sitio Web que se conozca. Clarificando un poco lo explicado en el párrafo anterior. La internet no son solo las páginas web que se visita, sino que es una red de redes, una red de computadoras enorme, una red mundial que se comunica a través de ciertos protocolos que son los que se mencionó anteriormente (TCP, DNS, entre otros). Internet, es la evolución de Arpanet, una red creada por el departamento de defensa de los estados unidos, también, durante la década del 80. El padre de la Internet, Tim Berners-Lee, no tuvo nada que ver con la creación de Internet, sino con la creación de la World Wide Web que, permitió la masificación de Internet y la creación de nuevos contenidos. Por ello, se lo llama el padre de la Internet.

En el año 1991, fue puesto en línea el primer sitio web, en donde explicaban a la comunidad, de
qué se trataba la World Wide Web, cómo poner un sitio en línea y cómo crear un servidor web,
entre otras cosas. En el año 1994, Tim fundó el World Wide Web Consortium, organización que
hasta el día de hoy, preside. Este consorcio, se encarga de definir estándares y recomendaciones
para mantener la calidad en la Web. Hoy en día, cualquier página web bien diseñada, se preocupa por respetar los estándares de esta organización.

Linus Benedict Torvalds (1969 - Ac.)
Linus Benedict Torvalds ( nacio en Helsinki, Finlandia el 28 de diciembre de 1969), es un ingeniero de software finlandés, es uno de los padres del Sistema Operativo libre más popular: GNU\Linux. Más específicamente, es el creador de la primera versión del núcleo (kernel) de Linux. Torvalds se recibió en Ciencias de la Computación en la Universidad de Helsinky y desde sus épocas universitarias dedicó su carrera a la programación, y se especializó en el popular lenguaje de bajo nivel, C. Durante la década del '80, Richard Stallman fundó el movimiento de Software Libre y comenzó, junto con otros programadores, el desarrollo de un Sistema Operativo que cumpla los principios del movimiento. Sin embargo, fue justamente Linus Torvalds quién aporto, en el año 1991, el componente fundamental de cualquier Sistema Operativo: el núcleo. Ese año fue el surgimiento de la primera versión de GNU/Linux. Explicado por el mismo Stallman, él fue el filósofo (y hasta quizás el Ingeniero) del movimiento, pero fue con la llegada de Linus, el arquitecto, que el proyecto pudo concretarse. Cuando Torvalds anunció el primer producto final de su desarrollo, en Agosto de 1991, envió un correo al grupo de usuarios de Minix (Sistema Operativo basado en UNIX). El mismo iniciaba así: I'm doing a (free) operating system (just a hobby, won't be big and professional...(Traducción: Estoy haciendo un Sistema Operativo gratuito, solo un hobby, nada profesional...). Desde su lanzamiento, Linux se posicionó como el Sistema Operativo libre por excelencia, y su
crecimiento fue constante desde aquel año. Desde entonces, Torvalds es el coordinador del
proyecto de desarrollo del kernel. En el año 2006, se estimó que, luego de todas las modificaciones que el mismo había sufrido (y con los miles de programadores que aportaron sus líneas de código), el 2% del kernel había sido escrito directamente por las manos de Linus.
El 17 de septiembre de 1991 sube al servidor de FTP proporcionado por su universidad la versión 0.01 de Linux con 10.000 líneas de código (en la actualidad tiene más de 10 millones). A partir de ese momento Linux empezó a evolucionar rápidamente.


Alan Field Shugart (1930 –2006)
Alan Field Shugart (nacioel 27 de septiembre de 1930 – 12 de diciembre de 2006) fue un ingeniero en computación líder en el trabajo en la industria de los discos duros. Esta considerado extensamente un pionero en su área. Comenzó su carrera en IBM en 1951, en San José,
California, reparando maquinas contable de tarjetas perforadas. Trabajó en el proyecto de IBM RAMAC 305 (del inglés Random Access Method of Accounting and Control) que permitía almacenar 5 millones de caracteres de datos. Dentro de los proyectos también fue partícipe
del IBM 1301, un disco de 50 MB el cual fue la base para múltiples empresas de servicios. Llegó a ocupar posiciones de importancia hasta ser el Direct Access Storage Product Manager, responsable de los productos de almacenamiento; que era en ese momento en IBM uno
de los negocios mas provechosos. Entre los grupos que reportaba a Shugart, estaba el del grupo que inventó el disco flexible (floppy disk).
En 1956, IBM lanzó el IBM 350 RAMAC, el primer ordenador con disco duro. Fue el 4 de septiembre, y el apodo RAMAC proviene de Random Access Method of Accounting and Control (sistema de almacenamiento y control por acceso aleatorio). El disco duro de unos 61 centímetros permitía almacenar la friolera de 5 millones de caracteres de 7-bits (a elegir un carácter entre 128, (2^7) posibles), es decir, alrededor de 4.4 MB de información. El disco giraba a 1200 rpm (hoy en día lo hacen normalmente a 5.400 y 7200 rpm) y la velocidad de transferencia era de unos 8000 caracteres por segundo. El 350 RAMAC dejó de venderse en 1969 y actualmente se encuentra una unidad de este sistema en el museo de la historia de las computadoras de Mountain View, en California.


Tim Paterson (1956 –Ac.)
Tim Paterson es un ingeniero informático, que escribió el sistema operativo del MS-DOS. En 1980 cuando tenía 24 años, trabajaba en la empresa Seattle Computer Products donde creó un sistema operativo llamado 86-DOS. Sin embargo, durante las fases de desarrollo, el sistema era conocido como Quick and Dirty Operating System. QDOS era una adaptación de CP/M al chip 8086 de Intel, aunque Tim Paterson siempre ha mantenido que su código era original. Por aquel entonces CP/M era el sistema operativo más común para los microcomputadores de 8 bits,
existiendo un vacío en el área de sistemas operativos para chips de 16 bits. La empresa que comercializaba CP/M era Digital Research propiedad de Gary Kildall. IBM comenzó a desarrollar su propia computadora personal que llamaría IBM PC en julio de 1980 y su primer prototipo de nombre código Acorn comenzaron a desarrollarlo en agosto. En 1981 IBM, tras fallar las negociaciones con Digital Research para la elaboración del sistema operativo (las razones son discutidas pero incluyen la tardanza de los Kildall en firmar una cláusula de confidencialidad con IBM) acordó con Microsoft que le proporcionaría un sistema operativo para
su computadora.

El verdadero éxito de Tim fue conseguir que el contrato con IBM le permitiese no sólo la
venta del sistema operativo propio de la máquina, llamado PC-DOS, sino que además pudiese
comercializar el sistema operativo para otros sistemas, con el nombre de MS-DOS. A Microsoft
se le terminaba el plazo de entrega estipulado y no disponía aún del software, por lo cual Bill
Gates y Paul Allen decidieron comprar los derechos (primero una licencia parcial y más tarde una
licencia completa) del sistema creado por Tim Paterson y contrataron a éste (en mayo de 1981)
para su adaptación al microprocesador usado en el IBM-PC, el 8088 de Intel. El resultado fue
vendido como PC-DOS a IBM y más tarde comercializado como MS-DOS a los computadores
clónicos que surgirían tras el éxito de IBM-PC.
Tim fue contratado por Microsoft en diversos periodos de su vida y trabajó en el desarrollo de
Visual Basic. Algún tiempo después también recibió algunas acciones de la misma.


Bill Gates (1955 – Ac.)
William Henry Gates III nació el 28 de octubre de 1955. Es hijo de William Henry Gates II, un destacado abogado, y de Mary Gates, una profesora de la Universidad de Washington y directora del First Interstate Bank. Con ellos y su hermana, dos años mayor, vivió en la ciudad de Seattle, en el estado de Washington. Hasta sexto grado fue alumno regular de un colegio público.Cursó estudios en la escuela privada de élite de Lakeside, en Seattle. Esta escuela tenía ya una computadora en el año 1968, así que Gates tuvo la posibilidad de contactar pronto con la máquina y aficionarse a la informática. También en Lakeside conoció a Paul Allen, con quien más tarde fundaría Microsoft. Creó la empresa de software Microsoft el 4 de abril de
1975, siendo aún alumno en la Universidad Harvard. En 1976 abandonó la universidad y se trasladó a Albuquerque, sede de Altair, para pactar con esa empresa la cesión de un lenguaje para computadoras, el Basic, al 50% de las ventas. Al año siguiente, se enteró del éxito de la empresa
Apple y de que necesitaban un intérprete de Basic. En 1980, se reunió con representantes de IBM en Seattle. Consiguió venderles el sistema operativo MS-DOS, aunque él aún no lo tenía y luego lo compró a muy bajo precio a un joven programador.

IBM necesitaba ese sistema operativo para competir con Apple, razón por la cual la negociación
era flexible. Microsoft quiso los derechos de licencia, mantenimiento, e incluso la facultad de
vender el DOS a otras compañías. IBM aceptó, considerando que lo que produciría dividendos
sería el hardware y no el software. Unos días después, Microsoft compró los derechos de autor del
QDOS a Tim Paterson, que trabajaba para la Seattle Computer Products, por 50.000 dólares, que
vendió a IBM como MS-DOS (Microsoft DOS). Lo que llama poderosamente la atención fue que
IBM no comprara el MS-DOS sino que decidiera pagar a Microsoft un canon por cada copia que
se vendiera junto con un IBM-PC. Lo que pocas veces se ha dicho es que por esos tiempos la
madre de Gates, Mary Maxwell, era directiva de la empresa United Way conjuntamente con el
CEO de IBM, John Opel.
Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente la
interfaz gráfica y el "ratón" fueron desarrollados por Xerox PARC) en su ordenador Lisa, se
propuso conseguir también el entorno gráfico y el "ratón" para operarlo. Mientras, Steve Jobs,
fundador de Apple, iniciaba el desarrollo del Macintosh, Bill Gates visitó Apple. Ofrecía mejorar
sus hojas de cálculo y otros programas. Amenazaba con vender su material informático a IBM,
con lo que obtuvo una alianza Apple-Microsoft. Microsoft obtuvo legalmente la tecnología del
entorno gráfico y del ratón, y sacó al mercado Microsoft Windows, como directo competidor de
Macintosh.


Richard Stallman (16/03/53 – Ac.)
Richard Matthew Stallman (nacido en Manhattan, Nueva York, 16 de marzo de 1953), con frecuencia abreviado como "rms", es un programador estadounidense y figura relevante del movimiento por el software libre en el mundo. Entre sus logros notables como programador incluyen la participación en el editor de texto GNU Emacs, el compilador GCC, y el depurador GDB, bajo la rúbrica del Proyecto GNU. Sin embargo, es principalmente conocido por el establecimiento de un marco de referencia moral, política y legal para el movimiento del software libre, como una alternativa al desarrollo y distribución del software no libre o privativo. Es también inventor del concepto de copyleft (aunque no del término), un método para licenciar
software de tal forma que su uso y modificación permanezcan siempre libres y queden en la comunidad. Al anuncio inicial del proyecto GNU siguió, en 1985, la publicación del Manifiesto GNU, en el cual Stallman declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema
operativo Unix, al que denominó GNU (GNU No es Unix), pronunciado de forma parecida al ñu,
en inglés (de ahí los dibujos-logotipos que lo representan). Poco tiempo después fundó la organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo
GNU/Linux.






Steven Paul Jobs
 (San Francisco, California, 24 de febrero de 1955Palo Alto, California, 5 de octubre de 2011), mejor conocido como Steve Jobs, fue un empresario y magnate de los negocios del sector informático y de la industria del entretenimiento estadounidense. Fue cofundador y presidente ejecutivo de Apple Inc.[12] y máximo accionista individual de The Walt Disney Company.
Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve Wozniak, en el garaje de su casa. Aupado por el éxito de su Apple II Jobs obtuvo una gran relevancia pública, siendo portada de Time en 1982.] Contaba con 26 años y ya era millonario gracias a la exitosa salida a bolsa de la compañía a finales del año anterior. La década de los 80 supuso la entrada de potentes competidores en el mercado de los ordenadores personales, lo que originó las primeras dificultades empresariales. Su reacción fue innovar, o mejor dicho, implementar: a principios de 1984 su compañía lanzaba el Macintosh 128K, que fue el primer ordenador personal que se comercializó exitosamente que usaba una interfaz gráfica de usuario (GUI) y un ratón en vez de la línea de comandos. Después de tener problemas con la cúpula directiva de la empresa que él mismo fundó, fue despedido de Apple Computer en 1985. Jobs vendió entonces todas sus acciones, salvo una. Ese mismo año recibía la Medalla Nacional de Tecnología del presidente Ronald Reagan, cerrando con este reconocimiento esta primera etapa como emprendedor. Regresó en 1997 a la compañía, que se encontraba en graves dificultades financieras, y fue su director ejecutivo hasta el 24 de agosto de 2011. En ese verano Apple sobrepasó a Exxon como la empresa con mayor capitalización del mundo.
Durante los años 90 transformó una empresa subsidiaria adquirida a Lucasfilm en Pixar, que revolucionó la industria de animación con el lanzamiento de Toy Story. La integración de esta compañía en Disney, de la que era proveedora, convertiría a Jobs en el mayor accionista individual del gigante del entretenimiento. En el año de su muerte, su fortuna se valoraba en 8.300 millones de dólares[20] y ocupaba el puesto 110 en la lista de grandes fortunas de la revista Forbes.
En su segunda etapa en Apple, también cambió el modelo de negocio la industria musical: aprobó el lanzamiento del iPod en 2001, y en 2003 la tienda online de música de iTunes, que en siete años vendió más de 10.000 millones de canciones y dominó completamente el negocio de música en línea, a un precio de US$0,99 por canción descargada.[21] Ya en 2009 lograba acaparar el 25 por ciento de la venta de música en los Estados Unidos, y es la mayor tienda musical por volumen de ventas de la historia.[22] Según el registro de patentes de los Estados Unidos, 317 patentes de Jobs figuran a nombre de Apple.[23]
  
Charles Francis Xavier
 (también llamado Profesor X) es un personaje perteneciente al Universo Marvel, uno de los mutantes más poderosos del mundo, fundador y líder de los X-Men y postulante del llamado sueño de Xavier. Fue creado por Stan Lee y Jack Kirby y apareció por primera vez en el número 1 de la colección de cómics Uncanny X-Men vol. 1, en septiembre de 1963.
A lo largo de la mayoría de su historia Xavier es parapléjico (y durante la serie Wolverine y los X-Men esta inconsciente durante 21 años), aunque cuenta con la mente mutante más poderosa del mundo. Como telépata que es, Xavier puede leer, controlar e influir en la mente humana. Es un genio científico con una habilidad sobrehumana para absorber información, siendo además una autoridad líder en genética, mutación y poderes psiónicos.
La misión de Xavier es promover la afirmación pacífica de los derechos mutantes, mediar la coexistencia pacífica entre mutantes y humanos y proteger a la sociedad de los mutantes peligrosos, incluyendo a su viejo amigo Magneto. Para lograr su objetivo, ha fundado la Escuela Xavier para Jóvenes Talentos (más tarde llamada Instituto Xavier) para enseñar a los mutantes a explorar y controlar sus poderes. Sus estudiantes lo consideran un visionario y a menudo se refieren a su misión como el Sueño de Xavier. Su primer grupo de estudiantes fueron los X Men originales.
En las historietas, los X Men rara vez actúan si no es bajo las órdenes de Xavier. Además, aparece en las series de animación de los X Men y en muchos videojuegos, aunque en éstos sólo como secundario. Patrick Stewart es el actor que lo interpreta en las películas del año 2000, y pone la voz al personaje en algunos de los videojuegos (incluyendo algunos no vinculados directamente al argumento y desarrollo de las películas). James McAvoy interpretó al personaje en la película de 2011 X-Men: First Class














No hay comentarios:

Publicar un comentario