Al-Jwarizmi. (780 - 840)
Mohammed Al-Jwarizmi nació alrededor del año 780 en Jwarizmi (la actual
Khiva, en Uzbekistán), en Asia central. Su fecha exacta de nacimiento y muerte
no son conocidas con exactitud, pero se sabe que realizó sus trabajos bajo los
califatos deal-Ma`mun y al-Mu'tasim en Bagdad, alrededor de los años( 813 – 833)
y probablemente murió en Bagdad alrededor del año 840 Su nombre significa
Mohamed,( hijo de Moisés, padre de Jafar), el de Jwarizmi.Al-Jwarizmi fue
matemático, astrónomo y geógrafo; se le considera el fundador de varias ramas
de las matemáticas y el que usó por primera vez determinado conceptos básicos
en esta ciencia.
Sus ideas influenciaron en varios matemáticos medievales. Al-Jwarizmi es considerado el inventor del Álgebra, palabra
que deriva de su libro Kitab al-Jabr wa-al-Muqabilah ("El Libro de las
Ecuaciones y las Integrales"), que fue traducido al latín en el siglo XII.
Es una compilación de soluciones de ecuaciones, de geometría elemental y de
métodos relacionados.Por esta razón, aunque no haya sido él el inventor del
primer algoritmo, merece que este concepto esté asociado a su nombre.
Al-Jwarizmi fue sin duda el primer pensador algorítmico.
Blaise Pascal (1623-1662)
Nació en Clermont (Francia) el 19 de junio de 1623, quedó huérfano de
madre a los 3 años. En1632 se trasladó a vivir a París. El padre de Pascal
tenía unas opiniones poco ortodoxas sobre la educación, por lo que él se
dedicaba a enseñar a su propio hijo. Unas de dichas opiniones era que Pascal no
debía estudiar matemáticas, pero esto produjo en Pascal curiosidad que le llevó
a estudiar las a espaldas de su padre.
En 1642 Blaise Pascal inventa la llamada pascalina,
Pascal inventó una calculadora mecánica. Trabajó varios años en este proyecto
hasta perfeccionarla, a la máquina se la conoció como la pascalina. Es una de
las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranajes.
Se fabricaron varias versiones y Pascal en persona construyó al menos cincuenta
ejemplares.
El primer uso de la pascalina fue en la Hacienda
francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que
era contador en dicha entidad. Debido a ello la pascalina estaba
destinada básicamente a solucionar problemas de
aritmética comercial. En honor a ello uno de los lenguajes más populares lleva
su nombre.
En la Pascalina, los datos se representaban mediante
las posiciones de los engranajes, y los datos se
introducían manualmente estableciendo dichas
posiciones finales de las ruedas, de manera similar que el cuentakilómetros de
un automóvil.
Gottfried Wilhelm Leibniz (1646-1716)
También conocido como barón Gottfried Wilhelm von Leibniz.
Filósofo, matemático y estadista alemán,
considerado como uno de los mayores intelectuales del siglo XVII. Nacido en
Leipzig, se educó en las universidades de esta ciudad de Jena y de Altdorf.
Desde 1666 (año en que fue premiado
con un doctorado en Leyes).Leibniz fue considerado un genio universal por sus Contemporáneos.
Su obra aborda no sólo problemas matemáticos y filosofía, sino también
teología, derecho, diplomacia, política, historia, filología y física.
En 1673 se trasladó a París realizando constantes
viajes a
Inglaterra, en esa época fue cuando más se dedicó a
estudiar matemáticas y ciencias. Fue cuando empezó a interesarse por la
mecanización del cálculo Como demuestran sus palabras:
"Es despreciable
que excelentes hombres pierdan horas trabajando como esclavos en las tareas de
cálculo, las cuales podrían ser relegadas con toda seguridad a cualquier otra
persona si las máquinas fueran usadas".
Diseñó la máquina aritmética. Tomando las notas y
dibujos originales de Pascal, mejoró la
Pascalina añadiendo la función de multiplicar. El
funcionamiento de este multiplicador mecánico
Era también a base de ruedas y engranajes.
Máquina de calcular de Leibniz (1694). Basada en la
Pascalina. Incorporaba innovaciones
mecánicas como el tambor de dientes desiguales que
permitía multiplicar un número por
rotaciones repetidas de la manivela principal.
Charles Babbage (1791 - 1871)
Nació en Teignmouth (Inglaterra), fue un niño enfermizo.
Su padre era rico por lo que Babbage estudió en las mejores escuelas privadas.
En seguida mostró interés por las matemáticas. Antes de entrar en la
universidad estudiaba en su casa con la ayuda de un tutor de Oxford, para así lograr
el nivel universitario. Así en 1810 ingresó en la Universidad de Cambridge.
Charles Babbage cuya idea fue automatizar ciertas tareas
repetitivas para que se ocuparan de ellas las máquinas y no los matemáticos. En
la década de 1820, Babbage comenzó a desarrollar
su máquina diferencial, un aparato que podía realizar cálculos
matemáticos sencillos. Aunque Babbage empezó a construir esta máquina, no pudo
terminarla por falta de fondos. (Sin embargo, en 1991 unos científicos
británicos que siguieron los dibujos y las especificaciones detalladas de
Babbage, construyeron esa máquina diferencial: la máquina funcionaba a la perfección
y hacía cálculos exactos con 31 dígitos, lo que demostraba que el diseño de
Babbage era correcto.) En la década de 1830, comenzó a desarrollar su máquina
analítica, que fue concebida para llevar a cabo cálculos más complicados, pero
este aparato no se construyó nunca. El libro de Babbage, Tratado de economía de
máquinas y de manufacturas (1832), inició el campo de estudio conocido
actualmente como investigación
operativa.
La máquina analítica de propósito general, que podía
ser programada por el usuario para
ejecutar un repertorio de instrucciones en el orden
deseado, de naturaleza mecánica, incluye la
mayoría de las partes lógicas de un ordenador actual.
Capaz de almacenar 1000 números de 50
dígitos cada uno.
Augusta
Ada King, Condesa de Lovelace (1815-1842)
Ada Byron nació el 10 de diciembre de 1815. Hija del poeta Lord Byron,
su madre hizo todo lo posible para que no siguiera los pasos de su padre por lo
que desde pequeña la guió por el camino de las ciencias y las matemáticas. Con
17 años Ada conoció a Mary Somerville que la animó en sus estudios matemáticos.
Durante una cena organizada por Somerville en noviembre de 1834, Ada oyó a
Charles Babbage hablar de sus ideas sobre la máquina analítica, y a partir de
ahí surgió la colaboración entre ambos. Babbage trabajó sobre este proyecto y
realizó una conferencia sobre sus trabajos en un seminario de Turín (Italia) en
1840, un matemático italiano llamado Mena brea escribió un artículo en francés
sobre todo lo dicho por Babbage. Ada, que estaba casada desde 1843 con el Conde
de Lovelace y era madre de 3 niños, tradujo este artículo, y cuando se lo
enseñó a Babbage éste le sugirió que añadiera sus propias ideas. El resultado
fue
que las notas que añadió Ada eran tres veces más del artículo
original. En dichas notas, que fueron publicadas en 1843, ella predijo que la
máquina de Babbage podría ser usada tanto para un uso práctico como científico.
Ada sugirió a Babbage escribir un "plan"
para que la máquina calculase números de Bernoulli, este "plan" es considerado
el primer "programa de ordenador", y por ello se considera a Ada el
primer programador de la historia. Existe un lenguaje de programación desarrollado
por el departamento de defensa de USA en 1979 que lleva su nombre: ADA Fue una
mujer adelantada a su tiempo, que lamentablemente murió muy joven (con 37
años).
George Boole (1815 - 1864)
Boole fue un niño inteligente, y su primer interés fue hacia los
idiomas, siendo capaz de dominar el latín completamente con 12 años. Aunque no
había estudiado para ello, empezó dedicándose a la enseñanza siendo a los 16
años profesor auxiliar en un colegio. También pensó realizar la carrera eclesiástica,
pero en 1835 decidió abrir su propio colegio y fue cuando empezó a estudiar
matemáticas por su cuenta, estudiando los trabajos de Laplace y Lagrange. Se
encaminó hacia el Álgebra publicando una aplicación de métodos algebraicos para
la resolución de ecuaciones diferenciales por el que recibió la medalla de la
Real Sociedad Matemática de Londres.
En 1849 fue nombrado catedrático de matemáticas en el
Queens Collage, donde ejerció la enseñanza el resto de su vida. En 1854 publicó
sus estudios sobre las teorías matemáticas de lógica y probabilidad. Boole
redujo la lógica a una álgebra sencilla, naciendo así lo que se conoce como
álgebra booleana, la cual influyó en el desarrollo de la informática.
Boole murió a los 49 años por causa de una pulmonía.
Aunque Boole tiene otros muchos estudios
en el universo de las matemáticas sin duda alguna se
le recordará por su álgebra, que fue un paso
fundamental en el desarrollo de las computadoras.
Nació en Santa Cruz de Iguña (Santander), fue el ingeniero
español más reconocido. Gran científico, desarrolló muchos inventos reconocidos
internacionalmente, sobre todo en el campo de la automática, considerándosele
como precursor de la informática.
En su juventud residió en Bilbao en donde en 1868 acaba
sus estudios de Bachillerato marchándose a Paris durante dos años para
continuar con sus estudios. En 1870 se trasladó, junto con su familia, a vivir
a Madrid, y un año más tarde ingresó en la Escuela Oficial del Cuerpo de
Ingenieros de Caminos, finalizando sus estudios en 1876. Al término de dichos
estudios se
dedicó a ejercer la ingeniería y a viajar por toda
Europa adquiriendo más conocimientos. En 1885 regresó a España iniciando así su
gran trayectoria científica e inventiva. En 1887 Torres Quevedo empezó la
investigación y desarrollo de un trasbordador, realizando el primero en su propia
casa. En 1907 construyó el primer trasbordador apto para el transporte humano,
lo hizo en el Monte Ulía (San Sebastián). A partir de aquí construyó muchos
otros, mediante la Sociedad de Estudios y Obras de Ingeniería de Bilbao, por
ejemplo en Chamoix, o Río de Janeiro. Pero el más famoso fue el construido
sobre las Cataratas del Niágara llamado "Spanish Aerocar", que se inauguró en pruebas en
1916, siguiendo hoy en día en pleno funcionamiento. En 1894 presentó a la Real
Academia de Ciencias una memoria sobre las máquinas algebraicas, incorporando
el diseño de una, que más adelante construyó. Una máquina analógica que
resolvía ecuaciones algebraicas y para la que inventó un "husillo sin fin".
En 1905 construyó el primer dirigible español, llamado el "España".
En 1903, Torres Quevedo diseñó y construyó el primer aparato de radiocontrol
del mundo, el telekino, presentándolo en la Academia de Ciencias de Paris.
Otros de los inventos de Torres Quevedo fueron los
jugadores ajedrecistas, que se consideran
como precursores de
la inteligencia artificial.
Hermann Hollerith (1860-1929).
Inventor estadounidense nacido en Nueva York, estudió
en la Universidad de Columbia. Con el fin de buscar un método más rápido para calcular
el censo estadounidense cuyo recuento en
1880 había durado más de 7 años también aplicó el concepto
del telar de Jacquard a la informática.
Hollerith usó tarjetas para almacenar los datos de información
y una máquina compilaba los resultados mecánicamente. Cada perforación sobre
una tarjeta representaba un número y las combinaciones de dos perforaciones
representaban una letra. En una tarjeta podían almacenarse 80 variables. En
seis semanas el censo estuvo listo y además, las tarjetas se podían utilizar
como un método para almacenar datos y evitar errores de cálculo. Con su lector
de tarjetas perforadas
se fundó la empresa Tabulating Machine Company que en
1924 se convirtió en IBM (International Business Machines Corporation). La
calculadora de Hollerith mediante tarjetas perforadas, coincidió en el tiempo
con la expansión de las máquinas de escribir Remington y los teléfonos de
AT&T y Bell.
Vannevar Bush (1890-1974)
Nació en Everett (Massachusetts) y estudió en el Tufts College de la
Universidad de Harvard y en el Instituto de Massachusetts de Tecnología (MIT),
fue un niño enfermizo pero con un gran espíritu de superación. En la escuela ya
demostraba su gran aptitud para las matemáticas. Ingresó en el Tufts College
para estudiar ingeniería, sus estudios los pagó la mitad con una beca y la otra
mitad trabajando como asistente en el departamento de matemáticas.
Durante la Primera Guerra Mundial, un grupo de
científicos interesados en ayudar al gobierno norteamericano formó el Consejo
de Investigación Nacional (NRC), cuyo propósito era mejorar el armamento. Una
de sus tareas fue el desarrollo de dispositivos para la detección de submarinos,
que fue desarrollado por Bush a partir de 1917. Al finalizar la guerra Bush
volvió al MIT para dedicarse al desarrollo de computadoras. En 1927 desarrolló
su primera máquina analógica para resolver sencillas ecuaciones. Bush continuó
con sus ideas y así en 1930 desarrolló el Analizador Diferencial, un
dispositivo mecánico para la resolución de ecuaciones diferenciales. En 1935,
Bush desarrolló una segunda versión, cuyos componentes eran electromecánicos, y
la entrada de instrucciones a través de tarjetas perforadas. Durante la Segunda
Guerra Mundial, Bush trabajó como consejero para el presidente de los EE.UU.
Roosevelt, dentro de la investigación militar. En 1945, publicó un artículo
titulado "Cómo
podemos pensar", en donde describe un máquina
teórica llamada "MEMEX", que se considera
como la base teórica del hipertexto, el lenguaje de
programación de Internet.
Diseño del MEMEX.
Norbert Wiener (1894 - 1964)
Nació en Columbia (EE.UU), fue un niño prodigio y a
los 11 años ingresó en la universidad; estudió en las universidades de Cornell,
Cambrigde, Göttingen y Harvard, en esta última obtuvo su doctorado en
matemáticas con 19 años. Durante la Segunda Guerra Mundial, Wiener trabajó para
su gobierno en proyectos relacionados con la defensa antiaérea. Fue cuando se
dio cuenta de la necesidad de mejorar las computadoras que había en aquella
época, se encaminó hacia la comunicación de información y para ello en el desarrollo
de los sistemas de redes. Tras la guerra Wiener continuó contribuyendo con
nuevas ideas en diversos campos, incluyendo la teoría de la predicción
matemática y la teoría cuántica (debatiendo con físicos como Niels Bohr, y Albert
Einstein En 1942, durante un congreso en Nueva York, conoció al científico
Rosenblueth, y empezó a investigar acerca de los robots y sistemas automáticos,
sentando así los fundamentos de una nueva ciencia: la cibernética, vocablo
adoptado por Wiener en 1947, y que procede del griego "kybernetes" y
que significa piloto. En 1948 publicó su obra "Cibernética: control y
comunicación en el animal y en la máquina", en donde desarrolla toda la
teoría de la cibernética.
Howard Hathaway Aiken (1900 - 1973)
Nació en Nueva Jersey (EE.UU), se crió en Indianápolis,
donde estudió en Arsenal Technical
School, graduándose en 1919. Tras ello estudió en la universidad
de Wisconsin, en donde se especializó en electrónica. Mientras estudiaba estuvo
trabajando como ingeniero operario en la Madison Gas and Electric Company desde
1919 a 1923. Se graduó como ingeniero electrónico en 1923. Tras esto trabajó en
la Westinghouse Electric Manufacturing Company, mientras se preparaba para su postgraduado
en la universidad de Harvard, donde obtuvo su M.A. en 1937 y el Ph.D en física
en 1939. Aiken permaneció en Harvard para enseñar matemáticas, primero como
instructor de facultad (de 1939 a 1941) y después como profesor asociado.
En 1937, antes de la guerra, Aiken presentó el proyecto
de construcción de una computadora, para el que obtuvo el apoyo de IBM. Así
nació la MARK I (o IBM ASCC), terminada en 1944 con un coste de 250000$.
Inmediatamente finalizada la marina de los EE.UU requisó tanto a la máquina
como a su inventor para usarlos durante la Segunda Guerra Mundial, Aiken
alcanzó el grado de Comandante, y la MARK I se usó para el cálculo de las
tablas navales de Artillería. Además de la MARK I, Aiken construyó más
computadoras: MARK II (1947), MARK III y MARK IV (1952).Tras la guerra, en
1946, Aiken volvió a Harvard como profesor de matemáticas. Además, fue nombrado
director de los nuevos laboratorios de informática de la universidad en 1947,
Aiken contó con la colaboración de Grace Hooper, encargada de la programación
de la MARK I. En 1964, Aiken recibió el premio Memorial Harry M. Goode, de la
Computer Society, por su contribución al desarrollo de las computadoras
automáticas, y por la construcción de la MARK I.
John Von Neumann (1903 - 1957)
Nació en Budapest (Hungría), su nombre verdadero es Margittai
Neumann János (los húngaros colocan sus apellidos antes que el nombre),
convirtiéndose en Jhohann Neumann von Margitta cuando se trasladó a Alemania y
que luego se lo recortaron quedándose en Johann von Neumann, para finalmente
conocérsele mundialmente como John Von Neumann, al llegar a EE.UU.John von
Neumann fue un niño prodigio, al comenzar la Segunda Guerra Mundial comenzó a
trabajar para el Gobierno de los EE.UU, hacia 1943 von Neumann empezó a
interesarse por la computación para ayudarse en su trabajo, en aquellos años
había numerosas computadoras en construcción, como por ejemplo la Mark I
(Howard Aiken) o Complex Computer (George Stibiz), pero con la que von Neumann
se involucró fue el ENIAC (junto con John Presper Eckert y John W. Mauchly).
Una vez finalizada la construcción del ENIAC y viendo sus limitaciones,
decidieron definir todo un nuevo sistema lógico de computación basado en las
ideas de Turing y se enfrascaron en el diseño y la construcción de una computadora
más poderosa el EDVAC (Electronic Discrete Variable Arithmetic Computer). Pero hubo
problemas legales con la titularidad de lo que hoy conocemos como Arquitectura
de Von Neumann. Esto produjo que el diseño se hiciera público, al final Eckert
y Mauchly siguieron su camino y Von Neumann regresó a Princeton con la idea de
construir su propia computadora.
En los años 50 construyó la computadora IAS, cuyo
diseño ha sido una de las bases de la computadora actual, conociéndose como
"arquitectura de Von Neumann". Otras de sus contribuciones en
computación fueron por ejemplo el uso de monitores para visualizar los datos y el
diagrama de flujo.
Alan Mathison Turing (1912 - 1954)
Nació en Londres (Gran Bretaña), desde muy temprana edad
Turing demostró su inteligencia. A los 3 años tenía una inusual capacidad para
recordar palabras y a los 8 años se interesó por la química montando un
laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya
demostraba su facilidad para las matemáticas, teniendo una gran capacidad para
realizar cálculos mentalmente. En 1939, con el comienzo de la Segunda Guerra Mundial,
Turing fue reclutado por el ejército británico para descifrar los códigos
emitidos por la máquina
Enigma utilizada por los alemanes. En el deseo de obtener mejores máquinas
descifradoras, se comenzó a construir la primera computadora electrónica,
llamada Colossus, bajo la supervisión de Turing, se construyeron 10 unidades, y
la primera empezó a operar en 1943. Por su trabajo en el Colossus, Turing
recibió la Orden del Imperio Británico en 1946. En 1944, Turing fue contratado
por el Laboratorio Nacional de Física (NLP) para competir con el proyecto
americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico
Principal a cargo del Automatic Computing Engine (ACE). Hacia 1947, Turing
concibió la idea de las redes de cómputo y el concepto de subrutina y
biblioteca de software. También describió las ideas básicas de lo que hoy se
conoce como red neuronal. Abandonó la NLP en 1948. Turing se adelantó al
proyecto de construcción de un ordenador de acuerdo con la arquitectura de von
Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC.
Turing diseñó para esta máquina un lenguaje de programación basado en el código
empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia
artificial, se puede decir que esta disciplina nació a partir del artículo titulado
"Computing Machinery and Inteligence" publicado por Turing en 1950.
Es muy famosa la primera frase de este artículo: "Propongo considerar la siguiente
cuestión: ¿Pueden pensar las máquinas?". Turing propuso un método llamado
el test de Turing para determinar si las máquinas podrían tener la capacidad de
pensar. En 1951, es nombrado miembro de la Sociedad Real de Londres por sus
contribuciones científicas. Y en su honor, la Association for Computing Machinery, llama "Turing
Award" a su premio más importante, el cual se otorga desde 1966 a los
expertos que han realizado las mayores contribuciones al avance de la computación.
La vida de Alan Turing estuvo rodeada de un halo de misterio y extrañeza,
acusado de "actos de grave indecencia" a causa de su homosexualidad
fue obligado a tomar estrógeno como condena, pero su muerte no le anduvo a la
zaga, el juez certificó suicidio, pero su madre sembró la duda al afirmar que
solía manejar cianuro. Al lado de la cama del muerto había media manzana a la
que Turing había dado tres mordiscos (una manzana con tres muescas es el
logotipo de los ordenadores Macintosh de Apple).
Claude Elwod Shannon (1916 - 2001)
universidad de Michigan, ingresó en el MIT (Massachusset
Institute of Technology) para
continuar en sus estudios. Fue allí donde realizó una
tesis con respecto el uso del álgebra de Boole para la construcción de máquinas
lógicas. Investigador de los laboratorios Bell y profesor en el MIT y autor de
la "Teoría matemática de la información" (1948), se le considera el
padre de las comunicaciones digitales y de otras muchas aportaciones
científicas en el campo de los
ordenadores, las comunicaciones digitales y la inteligencia
artificial, tales como la optimización
en la transferencia de datos punto a punto, el ancho de
banda, la compresión de datos para la
transmisión de información digital, el uso de la lógica
booleana para describir cómo una máquina recibe información, la criptografía,
etc. Shannon fue el primero en identificar el bit como la unidad fundamental de
datos y, por tanto, la unidad básica de la computación. Entre sus inventos se
encuentran desde un ratón mecánico capaz de aprender cómo se sale de un laberinto
hasta una máquina de jugar al ajedrez precursora del famoso Deep Blue, la
máquina que derrotó a Kasparov.
Grace Murray Hopper (1906 - 1992)
Nació en Nueva York (EE.UU), desde muy pequeña demostró una gran aptitud
para las ciencias y las matemáticas. Y tanto su abuelo como su padre siempre la
animaron a que ella estudiara.
También le atrajo mucho cualquier tipo de dispositivo
mecánico, y así lo demuestra cuando con 7 años desarmó todos los relojes de su
casa para ver si podía así entender su funcionamiento. En el colegio ya
destacaba como alumna en matemáticas. En 1943 decidió unirse a las fuerzas
armadas en plena Segunda Guerra Mundial, para lo cual tuvo que obtener un
permiso especial. Asistió a la Escuela de cadetes navales para Mujeres,
graduándose la primera de su clase en 1944 y obteniendo el rango de teniente. Fue
enviada a Harvard para trabajar en el Proyecto de Computación que dirigía el
comandante Howard Aiken, la construcción
de la Mark I. Tras el final de la Segunda Guerra Mundial Hooper quiso seguir en
la Armada pero como ya había cumplido los 40 años en 1946 (el límite eran 38) fue
rechazada permaneciendo en la reserva. Por lo que siguió en Harvard como
Investigadora junto a Aiken. Desarrolló varias aplicaciones contables para la
Mark I, que estaba siendo utilizada por una compañía de seguros. Permaneció en
Harvard hasta 1949, cuando Hopper empezó a trabajar en la Eckert - Mauchly Corporation
en
Filadelfia (compañía fundada por los inventores del
ENIAC, Eckert y Mauchly),
que en esos momentos estaban desarrollando las
computadoras BINAC y UNIVAC I. Trabajó en esa compañía y en sus sucesoras hasta
su retiro en 1971. Allí fue donde Hopper realizó sus mayores contribuciones a
la programación moderna. En 1952, desarrolló el primer compilador de la
historia, llamado A-0, y en 1957 realizó el primer compilador para procesamiento
de datos que usaba comandos en inglés, el B-0 (FLOWMATIC), cuya aplicación
principal era el cálculo de nóminas. Tras su experiencia con FLOW-MATIC, Hopper
pensó que podía crearse un lenguaje de programación que usara comandos en
inglés y que sirviera para aplicaciones de negocios. La
semilla de COBOL había sido sembrada, y 2 años después
se creó el comité que diseño el famoso lenguaje. Aunque Hopper no tuvo un papel
preponderante en el desarrollo del lenguaje, fue miembro del comité original
para crearlo, y el FLOW-MATIC fue una influencia tan importante en el diseño de
COBOL, que se considera a Hopper como su creadora. Hopper permaneció en la
reserva de la Armada hasta 1966, cuando tuvo que retirarse con el grado
de Comandante, por haber alcanzado el límite de edad
nuevamente. Pero este retiro duró poco ya
que la Armada la volvió a llamar en 1967 para que
estandarizara los lenguajes de alto nivel que
usaban. Se reincorporó y permaneció en el servicio
durante 19 años más. En 1986, Hopper se
retiró de la Armada de manera definitiva, siendo en
ese momento la oficial de más edad de la
Armada de los EE.UU. Tras su retiro, se incorporó como
asesora en Digital Equipment Corporation, participando en foros industriales,
dando unas 200 conferencias por año y
participando en programas educativos hasta 1990,
cuando la "increíble Grace", que era como la
conocían sus amistades, se retiró definitivamente. Fragmento
de código del Flow-Matic
A lo largo de su vida, Hopper recibió numerosos
reconocimientos, que incluyen más de 40
doctorados honoris causa, la Medalla Nacional de
Tecnología, la Medalla Wilbur Lucius Cross de Yale, el rango de Comodore en
1983 y el de contra-almirante en 1985.
John W. Mauchly (1907 - 1980)
John consiguió una beca para estudiar ingeniería, se dedicó a estudiar
física obteniendo el doctorado en 1932. En 1941, en plena Segunda Guerra
Mundial, Mauchly recibió un cursillo sobre electrónica para utilizarla para la defensa (ejército) en la
universidad de Pensylvania Mauchly, empezó a desarrollar ideas para la construcción de computadoras, y fue
entonces cuando John Eckert (que fue uno de sus instructores en el
cursillo) se interesó por dichas ideas, y en 1943 se aprobó la
construcción del computador ENIAC (en donde colaboró activamente Eckert), cuya función específica sería el cálculo de trayectorias de las bombas. Hasta
1946 no se terminó de construir. Mauchly y Eckert
abandonaron la universidad de Pensylvania en 1946 fundando la empresa "Control Electrónico" (Eckert-Mauchly Corporation) . La
compañía aérea Northrop les encargó la "Computadora
Binaria Automática" (BINAC) construida en 1949. En el BINAC, los datos
eran almacenados sobre cinta magnética en vez de en tarjetas perforadas. Otra
de las computadoras que construyeron fue la "Computadora Universal
Automática" (UNIVAC), que fue la primera computadora que
se comercializó en EEUU (se vendieron 46 unidades). Pero Mauchly y Eckert eran mejores ingenieros que economistas por lo que su empresa fue
absorbida por otra compañía. En 1965 Mauchly abandonó la empresa.
En 1966 recibió
el premio concedido por la Computer Society por su aportación al desarrollo de
las computadoras. John W. Mauchly - John Presper Eckert
John Presper Eckert (1919 - 1995)
Nació en Filadelfia (EE.UU), en 1937 ingresó en la
Universidad de Pensylvania para estudiar ingeniería eléctrica, terminando la
carrera en 1941 con excelentes calificaciones. Tras su graduación le dieron un
puesto como instructor de cursillos de electrónica para las investigaciones que
se llevaban a cabo con motivo de la Segunda Guerra Mundial. Uno de sus alumnos
de dichos cursillos fue John Mauchly (que era 12 años mayor que Eckert). Eckert
enseguida se interesó por las ideas que tenía Mauchly sobre la construcción de
una computadora. De la colaboración de ambos surgió el proyecto ENIAC. En Mayo
de 1943 designaron a Eckert ingeniero principal del proyecto cuya tarea
específica era diseñar los circuitos electrónicos. Uno de los problemas que solucionó
fue conseguir que las 18000 válvulas de las que estaba compuesto el ENIAC
tuvieran una vida larga para que así el ENIAC fuera viable.
También se encargó del diseño de las calculadoras en
base 10 para el ENIAC. En octubre de 1946 Eckert abandonó la universidad de
Pensylvania, al igual que Mauchly. Creando juntos la empresa "Control
Electrónico" (Eckert-Mauchly Corporation) construyendo diversas
computadora como el BINAC (Computadora Binaria Automática) en la que los datos
eran almacenados en cintas magnéticas, o el UNIVAC (Computadora Universal
Automática) que fue la primera que se comercializó en EEUU. Pero tuvieron
problemas económicos con lo que su empresa fue absorbida en 1950 la Rand
Remington Corporation, Eckert permaneció en la compañía pasando a ser un ejecutivo
de la misma. Se fusionaron con Burroughs Corporation creándose así Unisys, Fue otorgado
la Medalla Nacional de Ciencia en 1969 (el más prestigioso en EEUU) por su participación
en la Informática. ENIAC es una sigla de Electronic Numerical Integrator And
Computer (Computador e Integrador Numérico Electrónico), utilizada por
el Laboratorio de Investigación Balística del Ejército de los Estados
Unidos.
Jack St. Clair Kilby (1923 - 2005)
Jack St.
Clair Kilby, nació el 8 de Noviembre de 1923 en Jefferson (Estados Unidos) y
fue el padre de los microchips y la microelectrónica. Ingeniero Electrónico
(Universidad de Illinois y
master en la de Wisconsin), sus descubrimientos físicos
y electrónicos, sentaron las bases de los
procesadores de los ordenadores. En sus palabras, el nunca
imaginó mientras avanzaba en sus
descubrimientos, la magnitud de estos: “Yo creí entonces
que el microprocesador sería importante, pero no podía imaginar en qué forma
crecería la industria electrónica debido a él”. Por sus méritos, Kilby fue
galardonado con el Premio Nóbel de Física en el año 2000. Aunque parezca un
dato normal y corriente, cabe recordar que Kilby recibió el Nóbel en Física sin
ser físico. Cuenta la historia que el Instituto Tecnológico de Massachusetts
rechazó a Kilby por sus bajas notas en matemática. Las investigaciones las
realizó bajo la responsabilidad de la empresa para la que trabajaba desde el
año 1958, Texas Instruments. El microchip fue desarrollado un año más tarde, en
1959. Durante su carrera, Jack patentó más de 60 descubrimientos que fueron
incorporados a la industria. Jack Kilby murió de
cáncer un 23 de Junio de 2005, a los 81 años de edad. En el salón de la Fama de
Inventores Estadounidenses, su retrato reposa junto al de Edison. Podemos citar
par resumir su importancia en la informática, palabras de la Real Academia
Sueca de Ciencias: “Sin Kilby, no hubiera podido ser posible el construir las
computadoras personales que tenemos ahora”.
Douglas Carl Engelbart (1925 –Ac.)
Douglas Carl Engelbart (nació en Oregón, Estados Unidos,
el 30 de enero de 1925) es un inventor estadounidense, descendiente de
noruegos. Es conocido por inventar el ratón, y es un pionero de la interacción
humana con las computadoras, incluyendo el hipertexto y las computadoras en
red. Engelbart recibió un título de grado en ingeniería eléctrica de la Oregon
State University en 1948, un título de grado en ingeniería de la Universi dad de Berkeley
en 1952 y un doctorado de UC Berkeley en 1955.
En otoño de 1968, en una conferencia de expertos en informática,
Doug Engelbart hizo una presentación que duró 90 minutos. Además de hacer la
primera demostración pública del ratón,incluyó una conexión en pantalla con su
centro de investigación, es decir, fue la primera vídeo-conferencia de la historia. Como
operario de radar en las Filipinas durante la Segunda Guerra Mundial, Engelbart
se inspiró en un artículo de Vannevar Bush, 'As We May Think', para buscar la
manera de usar las computadoras para mejorar la sociedad. Cuando terminó la
guerra, y siguiendo esta idea, Engelbart renunció a su trabajo como ingeniero y
se fue a estudiar a UC Berkeley. Allí trabajó en la versión previa de Internet,
la red militar ARPANET. Engelbart fue la fuerza motriz detrás del diseño del
primer sistema en línea, On-Line System (también conocido como NLS), en el
Stanford Research Institute. Su oficina fue el segundo nodo de la red. Junto
con su equipo en el Augmentation Research Center desarrolló varios elementos
básicos de la interfaz humana de las computadoras actuales, como pantallas con
imágenes en bits, ventanas múltiples, y software multiusuario. También fue el
co-inventor del mouse, del que nunca recibió regalías.
Dennis Mac Alistair Ritchie (1941 –2011.)
Dennis Mac Alistair Ritchie, es un científico computacional estadounidense
cuyo mayor aporte a la informática ha sido la creación del lenguaje de
programación C. Es además, uno de los desarrolladores del sistema Unix. Nacido
en Bronxville (Estados Unidos) en 1941, Ritchie es uno de los mayores
colaboradores para el desarrollo y evolución de los sistemas operativos.Luego
de graduarse en Harvard, desarrolló su carrera laboral principalmente en los
Laboratorios Bell, y también trabajó en empresas como ALTRAN o Lucent. Primer
En el año 1972 creó, junto a Kem Thompson, el lenguaje de programación C, hecho
que lo pondría en la historia de la informática. El lenguaje C se ha ubicado,
junto a sus derivados (C++, Java, etc.) como el lenguaje referente para el
desarrollo de Sistemas Operativos y programación de bajo nivel. Sus principales
características indican que es un lenguaje simple, de bajo nivel de abstracción
y extremadamente flexible. A pesar de ser referente en la materia, ha sido utilizado
posteriormente para innumerables desarrollos más allá de la creación de
sistemas de base. Fue desarrollado en su mayoría en los laboratorios de Bell y
su nombre se debe a que muchas de sus características fueron inspiradas de un
lenguaje anterior denominado "B". En paralelo al desarrollo del
lenguaje de programación, se gestaba en los laboratorios
de Bell un Sistema Operativo que
cambiaría la historia de la informática: Unix. Ritchie
fue uno de los desarrolladores de este proyecto que finalizó con Unix, el
primer Sistema Operativo multitarea y multiusuario, presentado al público a
principios de la década del '70. Según Ritchie, "UNIX es basicamente un
Sistema Operativo simple, pero debes ser un genio para entender su simplicidad"
("UNIX is basically a simple operating system, but you have to be a genius
to
understand the simplicity."). Luego de su
desarrollo y publicación, importantes empresas adoptaron a Unix como parte de
su estrategia y desarrollo. Entre ellas, se destacan Sun Microsistems, IBM y
MAC OS. Hoy, son muy utilizados sistemas derivados de Unix, como BSD o Linux,
entre otros. Dennis ha sido galardonado con innumerables premios en su carrera,
entre los que se destacan el "Premio Turing" en 1983 y la Medalla Nacional de Tecnología de los
Estados Unidos en 1998.
Vinton 'Vint' G. Cerf (1943 – Ac.)
Vinton 'Vint' G. Cerf es un científico de la
computación estadounidense, considerado uno de los 'padres' de Internet. Nacido
en Connecticut (Estados Unidos) en 1943, de origen judío, se graduó en
matemáticas y ciencias de la computación en la Universidad de Stanford (1965).
Durante su estancia posterior en la Universidad de California (UCLA) obtuvo la
maestría en ciencias y el doctorado. A principios de los años 70 comenzó a
trabajar con Robert Kahn en el desarrollo de un conjunto de protocolos de
comunicaciones para la red militar, financiado por la agencia gubernamental DARPA.
El objetivo era crear una "red de redes" que permitiera interconectar
las distintas redes del Departamento de Defensa de los Estados Unidos, todas ellas
de diferentes tipos y que funcionaban con diferentes sistemas operativos, con
independencia del tipo de conexión: radioenlace s, satélites y líneas telefónicas.
John Berners-Lee (1955- Ac.)
Sir Timothy "Tim" John Berners-Lee, OM, KBE
(Tim BL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció
en Ingeniería Física en 1976 en el Queen's College de la Universidad de Oxford.
Es considerado como el padre de la Web. En marzo de 1989, Tim junto a un grupo
de compañeros desarrolló la iniciativa de crear la World Wide Web, cuya idea
principal era la creación de una red con contenidos de formato digital para
compartirlos globalmente a través de Internet. Es decir, Tim Berners- Lee no
inventó el Internet, sino que inventó una serie de protocolos y estándares para
utilizar en cualquier red que, permitieron la popularización de Internet y específicamente
de los navegadores y las páginas web. Los principales conceptos que desarrolló
Tim, con su equipo, son HTML, HTTP y URL. El primero, Hyper Text Mark up
Language (lenguaje de etíquetas de hipertexto), es el principal lenguaje de programación
para el desarrollo de páginas web. A pesar de la creación de diversos lenguajes
que se utilizan hoy en día, html, sigue siendo la base de cualquier sitio Web
que se conozca. Clarificando un poco lo explicado en el párrafo anterior. La
internet no son solo las páginas web que se visita, sino que es una red de redes,
una red de computadoras enorme, una red mundial que se comunica a través de
ciertos protocolos que son los que se mencionó anteriormente (TCP, DNS, entre
otros). Internet, es la evolución de Arpanet, una red creada por el
departamento de defensa de los estados unidos, también, durante la década del
80. El padre de la Internet, Tim Berners-Lee, no tuvo nada que ver con la
creación de Internet, sino con la creación de la World Wide Web que, permitió
la masificación de Internet y la creación de nuevos contenidos. Por ello, se lo
llama el padre de la Internet.
En el año 1991, fue puesto en línea el primer sitio
web, en donde explicaban a la comunidad, de
qué se trataba la World Wide Web, cómo poner un sitio
en línea y cómo crear un servidor web,
entre otras cosas. En el año 1994, Tim fundó el World
Wide Web Consortium, organización que
hasta el día de hoy, preside. Este consorcio, se
encarga de definir estándares y recomendaciones
para mantener la calidad en la Web. Hoy en día,
cualquier página web bien diseñada, se preocupa por respetar los estándares de
esta organización.
Linus Benedict Torvalds (1969 - Ac.)
Linus Benedict Torvalds ( nacio en Helsinki, Finlandia
el 28 de diciembre de 1969), es un ingeniero de software finlandés, es uno de los
padres del Sistema Operativo libre más popular: GNU\Linux. Más específicamente,
es el creador de la primera versión del núcleo (kernel) de Linux. Torvalds se
recibió en Ciencias de la Computación en la Universidad de Helsinky y desde sus
épocas universitarias dedicó su carrera a la programación, y se especializó en
el popular lenguaje de bajo nivel, C. Durante la década del '80, Richard
Stallman fundó el movimiento de Software Libre y comenzó, junto con otros
programadores, el desarrollo de un Sistema Operativo que cumpla los principios
del movimiento. Sin embargo, fue justamente Linus Torvalds quién aporto, en el
año 1991, el componente fundamental de cualquier Sistema Operativo: el núcleo.
Ese año fue el surgimiento de la primera versión de GNU/Linux. Explicado por el
mismo Stallman, él fue el filósofo (y hasta quizás el Ingeniero) del
movimiento, pero fue con la llegada de Linus, el arquitecto, que el proyecto
pudo concretarse. Cuando Torvalds anunció el primer producto final de su
desarrollo, en Agosto de 1991, envió un correo al grupo de usuarios de Minix
(Sistema Operativo basado en UNIX). El mismo iniciaba así: I'm doing a (free) operating system (just
a hobby, won't be big and professional...(Traducción: Estoy haciendo un Sistema Operativo gratuito, solo un
hobby, nada profesional...). Desde su lanzamiento, Linux se posicionó como el
Sistema Operativo libre por excelencia, y su
crecimiento fue constante desde aquel año. Desde
entonces, Torvalds es el coordinador del
proyecto de desarrollo del kernel. En el año 2006, se
estimó que, luego de todas las modificaciones que el mismo había sufrido (y con
los miles de programadores que aportaron sus líneas de código), el 2% del
kernel había sido escrito directamente por las manos de Linus.
El 17 de septiembre de 1991 sube al servidor de FTP
proporcionado por su universidad la versión 0.01 de Linux con 10.000 líneas de
código (en la actualidad tiene más de 10 millones). A partir de ese momento
Linux empezó a evolucionar rápidamente.
Alan Field Shugart (1930 –2006)
Alan Field Shugart (nacioel 27 de septiembre de 1930 – 12 de diciembre
de 2006) fue un ingeniero en computación líder en el trabajo en la industria de
los discos duros. Esta considerado extensamente un pionero en su área. Comenzó
su carrera en IBM en 1951, en San José,
California, reparando maquinas contable de tarjetas perforadas. Trabajó en
el proyecto de IBM RAMAC 305 (del inglés Random Access Method of Accounting and
Control) que permitía almacenar 5 millones de caracteres de datos. Dentro de
los proyectos también fue partícipe
del IBM 1301, un disco de 50 MB el cual fue la base para múltiples
empresas de servicios. Llegó a ocupar posiciones de importancia hasta ser el
Direct Access Storage Product Manager, responsable de los productos de almacenamiento;
que era en ese momento en IBM uno
de los negocios mas provechosos. Entre los grupos que reportaba a
Shugart, estaba el del grupo que inventó el disco flexible (floppy disk).
En 1956, IBM lanzó el IBM 350 RAMAC, el primer ordenador con disco duro.
Fue el 4 de septiembre, y el apodo RAMAC proviene de Random Access Method of
Accounting and Control (sistema de almacenamiento y control por acceso
aleatorio). El disco duro de unos 61 centímetros permitía almacenar la friolera
de 5 millones de caracteres de 7-bits (a elegir un carácter entre 128, (2^7)
posibles), es decir, alrededor de 4.4 MB de información. El disco giraba a 1200
rpm (hoy en día lo hacen normalmente a 5.400 y 7200 rpm) y la velocidad de
transferencia era de unos 8000 caracteres por segundo. El 350 RAMAC dejó de
venderse en 1969 y actualmente se encuentra una unidad de este sistema en el
museo de la historia de las computadoras de Mountain View, en California.
Tim Paterson (1956 –Ac.)
Tim Paterson es un ingeniero informático, que escribió el sistema operativo
del MS-DOS. En 1980 cuando tenía 24 años, trabajaba en la empresa Seattle Computer
Products donde creó un sistema operativo llamado 86-DOS. Sin embargo, durante
las fases de desarrollo, el sistema era conocido como Quick and Dirty Operating
System. QDOS era una adaptación de CP/M al chip 8086 de Intel, aunque Tim
Paterson siempre ha mantenido que su código era original. Por aquel entonces CP/M
era el sistema operativo más común para los microcomputadores de 8 bits,
existiendo un vacío en el área de sistemas operativos para chips de 16
bits. La empresa que comercializaba CP/M era Digital Research propiedad de Gary
Kildall. IBM comenzó a desarrollar su propia computadora personal que llamaría
IBM PC en julio de 1980 y su primer prototipo de nombre código Acorn comenzaron
a desarrollarlo en agosto. En 1981 IBM, tras fallar las negociaciones con
Digital Research para la elaboración del sistema operativo (las razones son
discutidas pero incluyen la tardanza de los Kildall en firmar una cláusula de confidencialidad
con IBM) acordó con Microsoft que le proporcionaría un sistema operativo para
su computadora.
El verdadero éxito de Tim fue conseguir que el contrato con IBM le
permitiese no sólo la
venta del sistema operativo propio de la máquina, llamado PC-DOS, sino
que además pudiese
comercializar el sistema operativo para otros sistemas, con el nombre de
MS-DOS. A Microsoft
se le terminaba el plazo de entrega estipulado y no disponía aún del
software, por lo cual Bill
Gates y Paul Allen decidieron comprar los derechos (primero una licencia
parcial y más tarde una
licencia completa) del sistema creado por Tim Paterson y contrataron a
éste (en mayo de 1981)
para su adaptación al microprocesador usado en el IBM-PC, el 8088 de
Intel. El resultado fue
vendido como PC-DOS a IBM y más tarde comercializado como MS-DOS a los
computadores
clónicos que surgirían tras el éxito de IBM-PC.
Tim fue contratado por Microsoft en diversos periodos de su vida y
trabajó en el desarrollo de
Visual Basic. Algún tiempo después también recibió algunas acciones de
la misma.
Bill Gates (1955 – Ac.)
William Henry Gates III nació el 28 de octubre de 1955. Es hijo de William
Henry Gates II, un destacado abogado, y de Mary Gates, una profesora de la Universidad
de Washington y directora del First Interstate Bank. Con ellos y su hermana,
dos años mayor, vivió en la ciudad de Seattle, en el estado de Washington.
Hasta sexto grado fue alumno regular de un colegio público.Cursó estudios en la
escuela privada de élite de Lakeside, en Seattle. Esta escuela tenía ya una computadora
en el año 1968, así que Gates tuvo la posibilidad de contactar pronto con la
máquina y aficionarse a la informática. También en Lakeside conoció a Paul Allen,
con quien más tarde fundaría Microsoft. Creó la empresa de software Microsoft
el 4 de abril de
1975, siendo aún alumno en la Universidad Harvard. En 1976 abandonó la
universidad y se trasladó a Albuquerque, sede de Altair, para pactar con esa empresa
la cesión de un lenguaje para computadoras, el Basic, al 50% de las ventas. Al
año siguiente, se enteró del éxito de la empresa
Apple y de que necesitaban un intérprete de Basic. En 1980, se reunió
con representantes de IBM en Seattle. Consiguió venderles el sistema operativo MS-DOS,
aunque él aún no lo tenía y luego lo compró a muy bajo precio a un joven
programador.
IBM necesitaba ese sistema operativo para competir con Apple, razón por
la cual la negociación
era flexible. Microsoft quiso los derechos de licencia, mantenimiento, e
incluso la facultad de
vender el DOS a otras compañías. IBM aceptó, considerando que lo que
produciría dividendos
sería el hardware y no el software. Unos días después, Microsoft compró
los derechos de autor del
QDOS a Tim Paterson, que trabajaba para la Seattle Computer Products,
por 50.000 dólares, que
vendió a IBM como MS-DOS (Microsoft DOS). Lo que llama poderosamente la
atención fue que
IBM no comprara el MS-DOS sino que decidiera pagar a Microsoft un canon
por cada copia que
se vendiera junto con un IBM-PC. Lo que pocas veces se ha dicho es que
por esos tiempos la
madre de Gates, Mary Maxwell, era directiva de la empresa United Way
conjuntamente con el
CEO de IBM, John Opel.
Consciente de la importancia del entorno gráfico que había mostrado
Apple (originalmente la
interfaz gráfica y el "ratón" fueron desarrollados por Xerox
PARC) en su ordenador Lisa, se
propuso conseguir también el entorno gráfico y el "ratón" para
operarlo. Mientras, Steve Jobs,
fundador de Apple, iniciaba el desarrollo del Macintosh, Bill Gates
visitó Apple. Ofrecía mejorar
sus hojas de cálculo y otros programas. Amenazaba con vender su material
informático a IBM,
con lo que obtuvo una alianza Apple-Microsoft. Microsoft obtuvo
legalmente la tecnología del
entorno gráfico y del ratón, y sacó al mercado Microsoft Windows, como
directo competidor de
Macintosh.
Richard Stallman (16/03/53 – Ac.)
Richard Matthew Stallman (nacido en Manhattan, Nueva York, 16 de marzo
de 1953), con frecuencia abreviado como "rms", es un programador
estadounidense y figura relevante del movimiento por el software libre en el
mundo. Entre sus logros notables como programador incluyen la participación en
el editor de texto GNU Emacs, el compilador GCC, y el depurador GDB, bajo la
rúbrica del Proyecto GNU. Sin embargo, es principalmente conocido por el
establecimiento de un marco de referencia moral, política y legal para el movimiento
del software libre, como una alternativa al desarrollo y distribución del
software no libre o privativo. Es también inventor del concepto de copyleft
(aunque no del término), un método para licenciar
software de tal forma que su uso y modificación permanezcan siempre libres
y queden en la comunidad. Al anuncio inicial del proyecto GNU siguió, en 1985,
la publicación del Manifiesto GNU, en el cual Stallman declaraba sus
intenciones y motivaciones para crear una alternativa libre al sistema
operativo Unix, al que denominó GNU (GNU No es Unix), pronunciado de
forma parecida al ñu,
en inglés (de ahí los dibujos-logotipos que lo representan). Poco tiempo
después fundó la organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux. organización sin ánimo de lucro Free Software Foundation para
coordinar el esfuerzo. Inventó el
concepto de copyleft, que fue utilizado en la Licencia Pública General
GNU (conocida
generalmente como la "GPL") en 1989. La mayor parte del
sistema GNU, excepto el núcleo, se
completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó
el núcleo Linux bajo
los términos de la GPL, completando un sistema GNU completo y operativo,
el sistema operativo
GNU/Linux.
Steven Paul Jobs
(San Francisco, California, 24 de
febrero de 1955 – Palo
Alto, California, 5 de
octubre de 2011), mejor conocido como Steve Jobs, fue un empresario y magnate de los negocios del sector informático y de la industria del entretenimiento estadounidense. Fue cofundador y presidente ejecutivo de Apple
Inc.[12] y máximo accionista individual de The Walt Disney Company.
Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve
Wozniak, en el garaje de su casa. Aupado por el éxito
de su Apple
II Jobs obtuvo una gran relevancia pública, siendo portada de Time en 1982.] Contaba con 26 años y ya era millonario gracias a la exitosa salida a
bolsa de la compañía a finales del año anterior. La década de los 80 supuso la entrada de potentes competidores en el mercado de los ordenadores personales, lo que originó las primeras dificultades empresariales. Su reacción fue
innovar, o mejor dicho, implementar: a principios de 1984 su compañía lanzaba el Macintosh
128K, que fue el primer ordenador personal que se
comercializó exitosamente que usaba una interfaz gráfica de usuario (GUI) y un ratón en vez de
la línea de comandos. Después de
tener problemas con la cúpula directiva de la empresa que él mismo fundó, fue
despedido de Apple Computer en 1985. Jobs vendió entonces todas sus acciones, salvo una. Ese mismo año
recibía la Medalla Nacional de Tecnología del presidente Ronald Reagan, cerrando
con este reconocimiento esta primera etapa como emprendedor. Regresó en 1997 a
la compañía, que se encontraba en graves dificultades financieras, y fue su director ejecutivo hasta el 24 de
agosto de 2011. En ese verano Apple sobrepasó a Exxon como la empresa con mayor capitalización del mundo.
Durante los años 90 transformó una empresa subsidiaria adquirida a Lucasfilm en Pixar, que revolucionó la industria de animación con el lanzamiento de Toy
Story. La integración de esta compañía en Disney, de la que
era proveedora, convertiría a Jobs en el mayor accionista individual del
gigante del entretenimiento. En el año de su muerte, su fortuna se valoraba en
8.300 millones de dólares[20] y ocupaba el puesto 110 en la lista de grandes fortunas de la revista Forbes.
En su segunda etapa en Apple, también cambió el modelo de negocio la
industria musical: aprobó el lanzamiento del iPod en 2001, y en 2003 la tienda online de música de iTunes, que en siete años vendió más de 10.000 millones de canciones y dominó
completamente el negocio de música en línea, a un precio de US$0,99 por canción
descargada.[21] Ya en 2009 lograba acaparar el 25 por ciento de la venta de música en los
Estados Unidos, y es la mayor tienda musical por volumen de ventas de la
historia.[22] Según el registro de patentes de los Estados Unidos, 317 patentes de Jobs
figuran a nombre de Apple.[23]
Charles Francis Xavier
(también llamado Profesor X)
es un personaje perteneciente al Universo
Marvel, uno de los mutantes más
poderosos del mundo, fundador y líder de los X-Men y postulante del llamado sueño
de Xavier. Fue creado por Stan Lee y Jack
Kirby y apareció por primera vez en el número 1 de la
colección de cómics Uncanny X-Men vol. 1, en septiembre de 1963.
A lo largo de la mayoría de su historia Xavier es parapléjico (y durante la serie Wolverine y los X-Men esta inconsciente durante 21 años), aunque cuenta con la mente mutante más
poderosa del mundo. Como telépata que es, Xavier puede leer, controlar e influir en la mente humana. Es un genio científico con una habilidad sobrehumana para absorber información, siendo además una
autoridad líder en genética, mutación y poderes psiónicos.
La misión de Xavier es promover la afirmación pacífica de los derechos
mutantes, mediar la coexistencia pacífica entre mutantes y humanos y proteger a
la sociedad de los mutantes peligrosos, incluyendo a su viejo amigo Magneto. Para
lograr su objetivo, ha fundado la Escuela
Xavier para Jóvenes Talentos (más tarde
llamada Instituto Xavier) para enseñar a los mutantes a explorar y controlar
sus poderes. Sus estudiantes lo consideran un visionario y a menudo se refieren
a su misión como el Sueño de Xavier. Su primer grupo de estudiantes fueron los
X Men originales.
En las historietas, los X Men rara vez actúan si no es bajo las órdenes de Xavier. Además,
aparece en las series de animación de los X Men y en muchos videojuegos, aunque en éstos sólo como secundario. Patrick
Stewart es el actor que lo interpreta en las películas
del año 2000, y pone la voz al personaje en algunos de los videojuegos (incluyendo algunos no vinculados directamente al argumento y desarrollo
de las películas). James
McAvoy interpretó al personaje en la película de 2011 X-Men: First Class
No hay comentarios:
Publicar un comentario