¿Qué es la computación?
¿Estudias computación? Muchos hacen esta pregunta pensando que es sólo saber formatear un disco o instalar un programa. Sin embargo, la computación es algo mucho más complejo e interesante. La computación es una ciencia.
La computación se dedica a estudiar todo lo relativo al tratamiento de la información digital. E implica muchas otras áreas como la matemática, por ejemplo. Si quieres saber de qué va esta ciencia, puedes comenzar a dar tus primeros pasos aquí.
Qué vas a encontrar aquí: Qué y para qué sirve es computación? Historia de la computación. Cuándo comienza la historia de la computación? Las generaciones de las computadoras. Computación en la nube. Computación ubicua. Computación cuántica. Computación gráfica. Computación distribuida
- Qué es computación?
- La importancia de la computación
- Para qué sirve la computación?
- Historia de la computación
-
Las generaciones de las computadoras
- La Primera Generación de Computadoras
- La Segunda generación de Computadoras
- La Tercera generación de Computadoras
- La Cuarta Generación de Computadoras (1981-1990)
- La Quinta Generación de Computadoras
- La sexta generación de computadoras
- Séptima Generación de computadoras
- Octava generación de computadoras
- Computación en la nube
- Computación ubicua
- Computación cuántica
- Computación gráfica
- Computación distribuida
Qué es computación?
Lo primero que tienes que saber antes de entrar de lleno en el tema de las computadoras, es que la palabra “Computación” se refiere a la ciencia que se dedica al estudio del tratamiento automático de la información.
Esta puede consistir de un conjunto de símbolos, números o palabras, y que en términos generales se conoce como “expresión alfanumérica”.
Es decir que la computación es el término que engloba el estudio de la tecnología de la información mediante equipos informáticos.
Por este motivo, cuando se habla de “computación” se refiere a una ciencia dedicada a estudiar el funcionamiento de las computadoras, sin embargo se refiere más ampliamente a un concepto en donde se tienen en cuenta multitud de factores, como por ejemplo la gestión de la información, el diseño de hardware y software.
Para saber más te recomendamos leer este post: ¿Qué es Hardware y Software?
Entonces puede decirse que la computación es una ciencia que combina múltiples elementos de diversas áreas de estudios como la ingeniería, electrónica, programación, matemáticas y otras.
Es decir que la computación es campo de estudio científico que se enfoca principalmente en sistemas automáticos para el manejo de información.
La palabra “computación” proviene de la expresión en idioma latín “computatĭo”, sin embargo existen ciertas discrepancias en este tema, ya que otros expertos aseguran que “computación” proviene de la conjunción del prefijo “com” y “putare”, cuya traducción más directa sería “computar” o también “evaluar”.
La importancia de la computación
Las computadoras han conseguido hacerse de un lugar de mucha importancia en la vida diaria de todos.
Sin embargo, para muchos usuarios son todavía un misterio, sobre todo para los de más edad, y aunque parezca difícil de creer, también para muchos niños y jóvenes.
Muchos, a pesar de haber nacido inmersos en esta tecnología, se supone que la posibilidad de navegar por Internet, usar las redes sociales y comunicarse a través de cualquiera de las herramientas de mensajería, en definitiva operar un dispositivo tecnológico es tan sencillo como hablar o escribir, pero lamentablemente en el fondo no saben del todo que es lo que están haciendo.
En un escenario en donde se es capaz de operar un dispositivo pero no se comprende del todo su funcionamiento, siempre se estaremos en desventaja, ya que ante cualquier problema no sabremos qué hacer, y deberemos depender del conocimiento de otros para solucionar nuestros inconvenientes.
Es por ello que conocer sobre computación y sobre computadoras es tan importante para las necesidades del mundo en que estás inmersos.
Si tienes una base de conocimientos, siempre podrás tener una respuesta a los problemas, o al menos hacerte entender para que te ayuden a solucionarlos.
Esta idea de poder solucionar los problemas es fundamental tanto para jóvenes como para personas con más edad, y se debe aplicar en cualquier escenario, sea el laboral o el estudio, o aun en nuestro hogar.
Para esto es necesario intentar comprender todos los procesos que se llevan a cabo cuando presionas un botón o mandas a imprimir.
Para ello debes mantener todos los sentidos despiertos, pero también estudiar cómo funciona la computación para poder aprender a usar y obtener el máximo provecho de todas las herramientas que una computadora te ofrece, ya que con el tiempo podrás superarte y mejorar tu eficiencia y productividad.
Para qué sirve la computación?
La computación hoy en día es fundamental para llevar a cabo la tarea que tienes que hacer. En la actualidad existen pocos trabajos en los cuales una computadora no es la herramienta principal, o te pueda ser útil brindándote ayuda, para mejorar lo que estás haciendo.
La principal función de la computación es la de estudiar todo lo relativo a las computadoras, lo que permite luego desarrollar diferentes tecnología que le permiten al usuario utilizar un dispositivo que le ofrezca un amplio abanico de posibilidades para poder desarrollarse.
Entre las funciones ofrecidas por estos dispositivos estudiados por la ciencia de la computación, donde se incluyen computadoras, tablets, teléfonos celulares y otros, se encuentran la posibilidad de procesar texto, editar video, imágenes o sonido, medio de comunicación y entretenimiento, análisis predictivo de escenarios, la medicina, el control de maquinaria y otros dispositivos y aparatos, el almacenamiento de información, el desarrollo de hardware y software, entre muchos otras áreas de estudio y producción.
Es decir que la computación y las computadoras son dispositivos multifunción de proceso de información que a través de su software y hardware, te permite tener herramientas de extrema utilidad en infinidad de campos de implementación.
Historia de la computación
La RAE define como “Computadora” a cualquier aparato para llevar a cabo cálculos matemáticos, pero como sabes una computadora es mucho más que eso.
¡Prácticamente es la base sobre lo que sostiene el mundo moderno!
No cabe duda que las computadoras y los dispositivos digitales son unos de los inventos más importantes de la humanidad, y que en conjunto con el software que los controla han permitido a la Humanidad llegar mucho más allá de sus metas.
Además con cada año que pasa, estos dispositivos se vuelven cada vez más rápidos y poderosos, y permiten alcanzar horizontes que algunas fueron inalcanzables.
Es por ello que es muy necesario que sepas un poco más en detalle de su historia.
A partir de este punto vamos a bucear en las profundidades del tiempo hasta llegar al origen de las computadoras, pero también analizaremos su desarrollo para de esta manera poder vislumbrar su futuro.
Cuándo comienza la historia de la computación?
La historia de las computadoras comienza mucho antes de lo que la mayoría de los usuarios cree.
Comenzó prácticamente en los albores de la Humanidad, cuando el hombre comenzó a tener la necesidad de contabilizar. De los dedos de la mano, pasó a hacer cálculos con piedras y otros objetos, luego los comenzó a escribir y finalmente desarrolló la computación cuántica.
Por supuesto que en el medio de toda esta historia hay mucho más, pero primero tenemos que saber con exactitud cuándo fue la primera vez que la Humanidad tuvo la necesidad de hacer cálculos más complejos que los que solía hacer.
Este punto en la historia de la computadoras es fijado por la mayoría de los expertos hace aproximadamente 4.000 a.C., cuando apareció el ábaco, un dispositivo de cálculo en apariencia simple fabricado con placas de arcilla, y sobre la cual se disponían piedras de una determinada manera para llevar a cabo los cálculos necesarios.
Si bien con las centurias el ábaco se modificó en sus formas de arcilla a otras que incluían madera, varillas y piedras que se deslizaban sobre estas varillas, lo cierto es que el ábaco mantuvo su forma de funcionamiento intacta hasta el día de hoy, donde se lo utiliza para el aprendizaje de matemáticas para personas con capacidades diferentes.
La computación después del Abaco
El siguiente paso en este viaje es el descubrimiento de los logaritmos de la mano de John Napier.
Esto ocurrió precisamente en el año 1614, cuando el científico publicó un texto acerca de este tema, lo que dio un giro espectacular en esta historia.
Para conocer más sobre este tema, te recomendamos leer este post: ¿Qué es un algoritmo en informática?
Los algoritmos son la base de la computación y las computadoras. También creó una máquina que permitía multiplicar, dividir, calcular la raíz cuadrada y cubica.
Otro salto importante ocurrió en 1623 cuando el científico Wilhelm Schickard creó una maquinaria llamada “Reloj Calculador”.
Con este invento consiguió sumar y restar hasta 6 dígitos, y en el caso de que el resultado sea mayor que 6 dígitos, tocaba una campana. Las operaciones eran realizadas girando una manivela, que permitía que los números cambiaran, dando lugar a las operaciones.
Sin embargo, el salto más importante de todos ocurrió en el año 1642, Blaise Pascal diseño y construyó una máquina llamada “Pascalina”, la cual era capaz de llevar a cabo operaciones aritméticas cuando se giraban los discos que estaban engranados, convirtiéndose de este modo en la precursora de las calculadoras mecánicas.
Hablando de máquinas de calcular, en el año 1672, al matemático Gottfried Wilhelm Von Leibnitz, basándose en los trabajos de Pascal, y tras muchos intentos, pudo concretar la fabricación del primer dispositivo que era capaz de llevar a cabo las cuatro operaciones matemáticas básicas, es decir suma, resta, división y multiplicación, además de ser capaz de obtener la raíz cuadrada.
Luego de ello llegó el llamado “Telar automático”, la cual era una máquina con entrada de datos por medio de tarjetas perforadas para controlar la confección de tejidos y sus respectivos dibujos.
Este fue creado en el año 1801 Joseph Marie Jackuard y es considerada como la primera máquina mecánica programable de la historia, ya que utilizaba tarjetas perforadas para poder controlarlas.
Estos desarrollos le sirvieron a Jackuard para desarrollar en el año 1834 una máquina analítica capaz de ejecutar las cuatro operaciones básicas, es decir sumar, dividir, restar, multiplicar, almacenar datos en una memoria, con una capacidad de hasta 1.000 números de 50 dígitos) e imprimir resultados. Pero esta máquina nunca pudo ser construida.
Otro de los pasos que definieron la historia de la computación ocurrió en el año 1822 cuando Charles Babbage, profesor y matemático de la Universidad de Cambridge, quien basándose en el trabajo de Jackuard y sus tarjetas perforadas, desarrolló y fabricó la llamada “Máquina Diferencial”.
Básicamente era una máquina creada en base al funcionamiento de unas ruedas dentadas, capaz de computar cálculos como funciones trigonométricas y logarítmicas, e imprimir extensas tablas científicas.
Aun cuando las múltiples ventajas que un dispositivo como este podía traer al comercio y otras actividades, dicha máquina nunca pasó de la etapa de prototipo, ya que la tecnología de ese tiempo era muy limitada para poder construir y duplicar su diseño en forma industrial.
A pesar de no haber tenido éxito económico en el momento, el reconocimiento finalmente llegó muchos años después, ya que en la actualidad es considerado como el “Padre de la computadora”.
En este sentido, la máquina diferencial de Charles Babbage fue la inspiración de muchos científicos y matemáticos, como por ejemplo George Scheutx, quien en 1834 en Estocolmo, desarrolló y construyó una máquina de madera, basándose en los trabajos de Babbage.
El siguiente paso que permitió darle forma a la computación como la conocemos hoy en día ocurrió en 1848 cuando el matemático inglés George Boole le diera forma al tipo de álgebra binaria que lleva su nombre: “Algebra Booleana”, que fue la puerta de acceso a todos los demás desarrollos, y que se mantiene hasta nuestros días.
A esto le siguieron otros desarrollos que permitieron establecer las bases de la computación, como los de Ramón Verea y su calculadora con tabla de multiplicación interna en 1878.
También la entrada en producción masiva de una calculadora de multiplicación más compacta en el año 1885 y las invenciones de calculadoras de Frank S. Baldwin y T. Odhner, entre otras.
Con el paso del tiempo, estas calculadoras mecánicas se refinaron y alcanzaron altos valores de eficacia en las tareas en las que eran empleadas, dando lugar al inicio de la llamada “Era de la computación”.
El Inicio de la Era de la Computación
La llamada “era de la computación” puede datarse con el desarrollo de una potente máquina creada para computar los datos del censo de los EEUU en 1890.
Esta máquina fue desarrollada con el objetivo de mejorar la velocidad y confiabilidad de los datos arrojados por el censo de personas llevado a cabo en el año 1880, el cual tardó más de siete años en ser completado.
Siguiendo las predicciones, los datos obtenidos del censo que debería tener lugar en 1890 tomarían más de 10 años en ser procesados y estar listos para ser usados.
Por este motivo, se llevó a cabo un concurso, cuyas bases eran la creación de un método que permitiera mejorar estos tiempos, en el cual resultó ganador un empleado del Bureau of the Census, es decir la oficina encargada de los censos nacionales.
El nombre del ganador era Herman Hollerith, quien luego fundaría Tabulating Machine Company, que con el correr de los años se transformaría y pasaría a llamarse IBM.
En este concurso, Hollerith presentó una máquina basada en las tarjetas perforadas de Babbage como método de memoria. Gracias a esta máquina, los datos recolectados por el censo de 1890 pudieron ser procesados en tan sólo 6 semanas.
Tras este éxito de las máquinas calculadoras automáticas, ya en épocas tan tempranas como 1930, aparecieron otras máquinas más complejas y sofisticadas, como por ejemplo el llamado “Analizador Diferencial”, desarrollo del científico Vannevar Bush, y el cual es considerado por muchos como la puerta de entrada a la computación moderna.
En el año 1937 George Stibitz desarrolla y construye la llamada la famosa “Model K”, una maquina digital que funcionaba en base a relés y cables.
También es una época de muchos descubrimientos y conocimientos. En 1936, Alan Turing publica un artículo sobre “Números Computables” y Claude Shannon escribe en una tesis la conexión entre lógica simbólica y circuitos eléctricos.
Ambos textos son considerados como fundamentales de la computación en nuestros días.
Luego de estos acontecimientos, las cosas comenzaron a ir cada vez más rápido, y es por este motivo que los historiadores y especialistas han consensuado en dividir la historia de la computación en diferentes etapas, las cuales llamaron “Generaciones de las computadoras”, y las cuales pasaremos a conocer a continuación.
Las generaciones de las computadoras
Cuando promediaba la Segunda Guerra Mundial los ingenieros y desarrolladores de la época se dieron cuenta que necesitaban calculadoras mucho más veloces, potentes y complejas que las que existían hasta el momento.
Es que con las modernas armas en desarrollo se necesitaban hacer cálculos muy precisos y complicados, y de los cuales podía depender el desenlace de la guerra.
Por este motivo se comenzaron a desarrollar diversos proyectos relacionados con grandes computadoras que pudieran hacer estos cálculos de manera mucho más certera y rápida.
Así nacieron las computadoras más famosas del mundo, que le proporcionaron a ambos bandos de la contienda incontables éxitos.
A partir de este punto vamos a conocer cómo comenzó a desarrollarse la informática de una manera más global, sin embargo.
Si quieres conocer más datos acerca de todas las computadoras implicadas en esta historia, te invitamos a leer el artículo en este enlace.
La Primera Generación de Computadoras
El hecho más importante, y que diera origen a la primera generación de las computadoras, ocurrió en 1938 cuando se puso en funcionamiento la computadora Z1, de origen alemán y fabricada completamente con componentes electro-mecánicos.
A esta la siguieron la Z2 en 1939, y la Z3 en el año 1941.
Luego de ello, precisamente en el año 1943, un equipo de científicos británicos, liderados por el matemático Alan Turing, y con el objetivo de poder romper los códigos de cifrado alemanes, logró poner en funcionamiento la primera de una serie de computadoras llamadas Colossus.
La principal diferencia con las alemandas es que en lugar de electromecánica, usaba válvulas de vacío.
A esta le siguió, en 1944, la computadora Mark I, diseñada por IBM y utilizada en la Universidad de Harvard, con el propósito de llevar a cabo cálculos para la Oficina de la Marina de USA.
En 1945 aparece EDVAC, un diseño revolucionario que comprendía el almacenamiento electrónico de la información y de los datos de programación, y que además era capaz de procesar datos según las necesidades del usuario.
En este punto de la historia se comienza a usar el término “Bug” para señalar desperfectos en la programación.
Esto proviene de una historia en la cual se ve involucrado un insecto, “bug”, en inglés, el cual quedó atrapado en la computadora y consiguió que sus cálculos fueron erróneos. Cabe destacar que el “bug” en cuestión era una polilla.
Para 1946 aparece la primera computadora electrónica, más conocida como ENIAC, la cual era capaz de superar por mil veces la velocidad de las otras computadoras contemporáneas, llegando a realizar 5 mil operaciones por segundo.
La Segunda generación de Computadoras
Podría considerarse a 1947 como el año de nacimiento de la segunda generación de computadoras, más precisamente al momento en que se inventa el transistor, con la cual algunos años más tarde, precisamente en 1953 se hace posible el desarrollo y la construcción de una memoria magnética.
El cambio de las válvulas de vacío por los transistores trajo como consecuencia que las computadoras comenzaran a tener menos peso y que consumieran menos energía, lo que años más tarde propicio su entrada al hogar.
En el año 1951 se introduce al mercado comercial la computadora UNIVAC, desarrollada con el fin de poder ejecutar cálculos a una velocidad de 1905 operaciones por segundo.
Otro gran salto ocurre cuando en 1953 IBM lanza al mercado comercial su primera computadora digital, la IBM 701.
Sin embargo en el año 1955 ocurre otro hecho sobresaliente: Aparece en el mercado la Tradic, de los laboratorios AT&T Bell, la cual fuera la primera computadora transistorizada.
Una año después, 1956 el MIT (Massachussets Institute of Technology) comienza a probar la entrada de datos mediante teclados, mientras que más tarde en el año 1957 se crea un nuevo lenguaje de programación: el Fortran.
Este permitía a la computadora llevar a cabo tareas repetidas a partir de un conjunto de instrucciones.
El año 1959 fue testigo de la aparición de la serie 7000 de mainframes IBM, las cuales eran capaces de utilizar palabras de 64 bits y otras muchas innovaciones.
La Tercera generación de Computadoras
Esta generación de computadoras nace a principios de la década de 1960, con la introducción al mercado de los circuitos integrados, un desarrollo de Texas Instruments.
La primera de estas computadoras que incluía esta tecnología fue la Burroughs B-2500, la cual era capaz de procesar millones de operaciones con menos energía, rapidez y eficiencia.
Con ella macen nuevos conceptos como memoria virtual, multiprogramación y sistemas operativos complejos. Ejemplos de esta época son el IBM 360 y el NEAC, la primera computadora electrónica de Japón.
Ya para 1960 comienza a verse el desarrollo de equipamiento que complementaba la tarea de aquellas computadoras, tales como el Dataphone, el primer módem comercial, diseñado específicamente para convertir señales digitales de computadora en señales analógicas para la transmisión a través de una red cableada.
También nace el COBOL, el primer lenguaje de programación volcado hacia el uso en programación de computadoras.
En el año 1961, gracias a las cada vez más potentes computadores, se comienzan a ver desarrollos relacionados con la automatización industrial, como el UNIMATE, primer robot industrial que entró en operación en la planta de General Motors en New Jersey.
Se crea en 1962 el primer juego interactivo de computadora, SpaceWar!, desarrollado estudiantes del MIT, y que serían la fuente de inspiración para los juegos a los cuales estamos acostumbrados en la actualidad.
Se desarrolla el código ASCII, el cual permitió que máquinas de diferentes fabricantes pudieran intercambiar datos entre sí, volviéndose más compatibles. Esto ocurrió precisamente en el año 1963.
1964 fue el año de la aparición del BASIC, un lenguaje de programación que revolucionaría para siempre la informática. También en ese mismo año se creó la computadora CDC 6600, capaz de ejecutar hasta 3 millones de operaciones por segundo.
En el año 1965 aprese en el mercado la PDP-8, la primera minicomputadora, desarrollada y fabricada por DEC. El año siguiente, Hewlett-Packard introduce al mercado la HP-2115, una computadora de alto rendimiento cuya característica más importante era que soportaba el uso de lenguajes BASIC, ALGOL y FORTRAN.
Sin embargo el hecho trascendental de ese año fue la aparición del primer disco de almacenamiento, el IBM RAMAC 305, el cual enía la capacidad de 5 MB.
En el año 1967 se crea el lenguaje LOGO e IBM desarrolla, construye y lanza al mercado el primer floppy disk. Al año siguiente, se introduce NOVA, punto de partida en la inspiración para la Apple I.
1969 es el año en el cual se desarrolla UNIX, el sistema operativo que podría ser utilizado por cualquier computadora.
Sin embargo, el hecho más relevante es la interconexión de unas pocas computadoras en la red llamada Arpanet, estableciéndose de este modo la primera comunicación computadora-computadora, la cual es el origen de Internet.
En el año 1970 se crear el llamado SRI Shakey, el primer robot móvil controlado por inteligencia artificial. También se instala el primer cajero automático.
En el año 1971 se introduce al mercado el Intel 4004, al cual le siguió el 8008 en el año 1972, que también fuera testigo del nacimiento de Atari.
1973 es el año en que se termina de perfilar el diseño de Ethernet y la aparición de Micral, la primera computadora comercial basada en un microprocesador, el Intel 8008. Un año más tarde se introduce la posibilidad de usar un mouse para controlar las acciones de una computadora.
En 1975 se anuncia la entrada al mercado de la computadora Altair 8800, la cual estaba basada en un microprocesador Intel 8080. También se crea Telenet, la primera red comercial, equivalente a ARPANET.
También se crea el prototipo del módulo de indicador visual (VDM), un indicador de video alfanumérico memory-mapped para su uso en computadoras personales.
También se lanza al mercado la Tandem Computers Tandem-16, la cual es la primer computadora “fault-tolerant” diseñada para la transacción on-line de procesos.
Ya en 1976, Steve Wozniak desarrolla la Apple I, la primer computadora single-board, es decir con una sola placa en donde se acomodaban todos los componentes para hacer funcionar la computadora.
Ese mismo año Gary Kildall desarrolla el CP/M, un sistema operativo para computadoras personales.
1977 es el año en que se comenzaron a comercializar variedad de computadoras personales, como por ejemplo la Commodore PET, la SOL, la Apple II y la Radio Shack TRS-80, entre muchas otras, de las cuales se vendieron miles de ejemplares.
Aparece en el mercado la VAX 11/78 en el año 1978, cuya característica principal era la capacidad de procesar hasta 4.3 gigabytes de memoria virtual, lo que la convirtió en la minicomputadora más rápida del mercado de aquel entonces.
En el año 1979 aparece en el mercado el microprocesador 68000, de Motorola, mucho más veloz que su competencia. Se desarrolla el VisiCalc, el inicio de una nueva era en el diseño de software.
En 1980 la Seagate Technology lanza al mercado el primer disco duro para micro computadoras. El disco era capaz de almacenar hasta 5 megabytes de datos, una capacidad impresionante y sobrada para las necesidades de la época.
También en ese año se desarrolla el primer disco óptico de almacenamiento de datos, de la mano de Philips.
La Cuarta Generación de Computadoras (1981-1990)
La cuarta generación de computadoras comienza con hechos que muchos de los usuarios conocen de primera mano, como por ejemplo la aparición de la PC-XT, o “Personal Computer”, desarrollado y fabricado por IBM en 1980, al cual le siguió la PC-AT.
La capacidad y flexibilidad de este tipo de computadoras permitieron el crecimiento del mercado del software, como el DOS, o “Disk Operating System” y otras muchas aplicaciones muy conocidas, como por el ejemplo el Lotus 1-2-3 de 1982 o el procesador de textos Word de Microsoft.
Ya en 1984, aparecen las primeras computadoras con interfaz gráfica de usuario, como el Macintosh, que además incluía ratón y unidad de diskette.
1985 es testigo de otro paso gigante en el desarrollo de Internet, cuando National Science Foundation conectó entre sí cinco supercomputadores en las Universidades de Princeton, Pittsburgh, California, Illinois y Cornell. También es el año del CDROM.
Gracias al ratón y a la interfaz gráfica, se pudieron desarrollar programas mucho más específicos como PageMaker, de Aldus, el cual fue la piedra fundamental para el desarrollo de aplicaciones diseñadas para el Desktop Publishing. También apareció el lenguaje de programación C++.
En 1986 se patenta el transistor óptico SEED un componente digital para computadoras que revolucionó el diseño y construcción de las mismas, se impulsa la inteligencia artificial, y se crean las estaciones de trabajo PC/RT y R2000, basadas en arquitecturas RISC.
También en ese año Compaq anuncia la Deskpro 386, la primera computadora en el mercado en utilizar el nuevo microprocesador Intel 386.
En el año 1987, Motorola desarrolla el microprocesador 68030. IBM introduce al mercado de consumo las computadoras PS/2.
En 1988 se desarrolla EISA (Enhanced Industry Standart Architecture), una arquitectura diseñada como contrapartida al uso de la arquitectura propietaria MCA de IBM.
También es el año de los virus, ya que Robert Morris hace historia enviando un virus a través de Internet, causando daños a cientos de miles de personas.
En el año 1989 se lanza al mercado el microprocesador 80486 y el i860 de Intel, mientras que Motorola anuncia el microprocesador 68040.
También ese año se lanza al mercado SimCity, un juego de computadoras que marcaría un antes y un después en la historia de este ámbito.
1990 es testigo de la aparición de Windows 3.0. También en ese mismo año existe otro hecho histórico de gran relevancia: Nace la World Wide Web, gracias a HTML (HiperText Markup Language).
La Quinta Generación de Computadoras
Con un mundo cada vez más tecnificado por computadoras y software, y las exigencias de capacidad para procesar multimedia o grandes volúmenes de datos, no faltaría mucho tiempo para que la potencia de las computadoras de aquella época comenzara a quedar corta.
Es por ello que la quinta generación de computadoras se ve marcada por la búsqueda de mayor potencia, fiabilidad y rapidez en espacios cada vez más reducidos.
Por este motivo comienzan a hacerse desarrollos y aparecen las primeras computadoras superpotentes, como por ejemplo la Cray Y-MP C90 con 16 procesadores y una velocidad de 16 Gflops, o las PowerPC, un desarrollo conjunto de IBM, Motorola, y Apple.
Ya en 1992 DEC presenta el primer chip que utiliza la arquitectura RISC Alpha 64-bit. Ese mismo año, en marzo, se transmite por Internet el primer audio multicast M-Bone. Tambié aparece el tristemente célebre virus Michelangelo, que deja un incontable cantidad de desastres.
1993 es el año de las PDA, también conocidas como “Personal digital assistant”.
También Intel presenta el procesador Pentium y en la Universidad de Illinois se desarrolla una interfaz gráfica para navegación por Internet llamada NCSA Mosaic, la cual revolucionaría el modo de ver las cosas de los usuarios de computadoras.
Luego de ello, precisamente en 1994 se presenta Netscape Communications, el primer navegador de Internet con una interfaz gráfica tal cual los conocemos hoy en día.
En 1995 se crea el lenguaje de programación Java, el cual permite el desarrollo de programas que son independientes de un sistema operativo determinado.
También sale al mercado Windows 95, una auténtica revolución entre los usuarios de computadoras personales, ya que ofrecía increíbles características para aquella época.
1996 preocupa a muchos dado que Deep Blue, una supercomputadora de IBM, le gana al campeón mundial de ajedrez Gary Kasparov. Dos años después, precisamente el 25 de junio de 1998 se lanza al Windows 98. Un año después se lanza Linux, año del miedo al Y2K.
El cambio de siglo trajo consigo el lanzamiento del procesador AMD de 1GHz. Intel también lanza el Pentium III.
Un año después Apple lanza al mercado Mac OSX, un sistema operativo con extraordinarias características, que incluyen arquitectura de memoria protegida y multitarea preferencial.
Para no quedarse atrás, Microsoft lanza al mercado Windows XP, el cual al igual que Windows 95 años atrás causó una verdadera revolución en el mercado de las computadoras personales.
Ya en el 2003 se lanza el primer procesador de 64 bits, el Athlon 64 de AMD. Un año después se lanza Firefox, desarrollado para competir con Microsoft Internet Explorer, el estándar de aquel momento.
Ese mismo año aparece Facebook, la red social que marcaría un antes y un después en cómo los usuarios usan sus dispositivos.
En 2005 aparece YouTube, el servicio de streaming de video más popular en la actualidad. Más tarde sería comprado por Google, al igual que otro proyecto llamado Android.
2006 es el año en que son lanzados al mercado la MacBook Pro, la primera notebook con doble núcleo de Apple, y la consola Wii de Nintendo. Un año después, en el 2007, Apple lanza al mercado el iPhone, un celular que cambiará para siempre el modo en que los usuarios trabajan y se comunican.
En 2008, la supercomputadora IBM Roadrunner es la primera en el mundo en superar el PetaFLOP de proceso.
2009 es el año en que sale al mercado la versión más popular y recordada de Windows la séptima, una de las versiones más estables de este sistema operativo.
En 2011 se lanza el iPad de Apple, un dispositivo tablet diseñada para el consumo de información, y que fue un verdadero éxito que dura hasta nuestros días. También ese año Google lanza al mercado la Chromebook, una notebook equipada con su propio sistema operativo.
2013 es el año de lanzamiento de Microsoft Windows 8.1 y Apple Mac OS X Mavericks. Un año después, esta última también lanza al mercado su primer reloj inteligente, el Apple Watch.
En 2015 Microsoft lanza al mercado Windows 10, con el paso de los años se convertirá en una de las mejores versiones del mismo, tanto por funciones y características como por estabilidad y rendimiento.
El año 2016 es testigo de cómo en la Universidad de Maryland, College Park, se pone en funcionamiento a la primera computadora cuántica reprogramable, de lo cual hablaremos más adelante en este mismo artículo.
Un año después, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), responsable de los inicios de Internet, se encuentra desarrollando un programa llamado “Informática Molecular” que utiliza moléculas como computadoras, sin dudas un avance más que importante en la historia de la computación.
En 2018 se publica se da a conocer al público el conjunto de vulnerabilidades críticas de seguridad “Meltdown” y “Spectre” los cuales afectan entre los dos a la mayoría de los procesadores en el mercado.
En el año 2019 IBM presenta al mercado la primera computadora cuántica comercial, la IBM Q System One. Asimismo anuncia una computadora cuántica de 53 cúbits, un verdadero hito tecnológico.
En el 2020, a pesar de la terrible pandemia suscitada por el SARS Covid-19 que deja estragos en todo el mundo, los avances en el desarrollo de tecnología no se detienen. La compañía Honeywell anuncia el lanzamiento de una nueva computadora cuántica capaz de alcanzar un volumen cuántico de 64 cúbits.
Para entender lo que pasará de aquí en adelante con la computación y las computadoras, a partir de este punto vamos a conocer lo que los científicos y las empresas tecnológicas se encuentra desarrollando con el fin que la tecnología y los dispositivos sean cada vez más poderosos y sean capaces de ayudarnos con mayor precisión y seguridad.
La sexta generación de computadoras
La sexta generación se caracterizará por ser la era de las computadoras inteligentes basadas en redes neuronales artificiales o “cerebros artificiales”.
Estas serían computadoras que utilizarán superconductores como materia prima para sus procesadores, en lugar de los componentes de silicio como en la actualidad, lo que les permitirá que toda la energía pueda ser transformada en capacidad de cálculo, y no desperdiciarla en calor.
En este sentido, se podrían obtener performances de hasta 30 veces la de un procesador con la misma frecuencia de operación pero que utilice metales comunes.
Por supuesto que todo esto todavía se encuentra en pleno desarrollo, y faltarán algunos años para que podamos disfrutar de estos adelantos.
Sin embargo, en la actualidad podemos encontrarnos con desarrollos verdaderamente sorprendentes, como los procesadores cada vez más poderosos y eficientes en materia energética, o el uso del llamado procesamiento en paralelo, un método que involucra el uso de múltiples CPU.
Todo lo que pueda suceder de aquí en más, es casi ciencia ficción, sin embargo sabemos que tarde o temprano, lo que vemos en las películas o leemos en los libros se vuelve realidad.
Séptima Generación de computadoras
La séptima generación de computadoras se caracterizará por el uso masivo de las redes de área mundial, o Wide Area Network y el procesamiento paralelo o computación distribuida, a través de arquitecturas combinadas Paralelo/Vectorial.
Por ende entran aquí una cantidad incontable de procesadores, computadoras y hardware diverso llevando a cabo simultáneamente una tarea, a velocidades imposibles al día de hoy, lo que permitirá absoluta integración del usuario con todo tipo de servicios en línea y de forma casi instantánea.
Todo esto va a poder tener lugar gracias al desarrollo acontecido en la generación anterior, que incluyen el desarrollo de la fibra óptica y las comunicaciones a través de satélites en todos los rincones del mundo y el uso de computadoras capaces de llevar a cabo millones de operaciones aritméticas de punto flotante por segundo Teraflops.
Octava generación de computadoras
Los científicos suelen referirse a la octava generación de computadoras a aquella en donde los dispositivos físicos que soportan la tecnología actual habrán desaparecido.
Así los discos de almacenamiento, teclados, ratones, computadoras, monitores y demás serán sido sustituidos por nanotecnología y servicios alojados en la nube.
Este pensamiento se basa en los actuales estudios en nanotecnología, también conocida como nanotecnología molecular, la cual básicamente es una nueva tecnología que explora la posibilidad de manipular materia a escala nanométrica, es decir la capacidad de poder manejar materiales manipulando de manera precisa sus átomos y moléculas, que nos puede ser útil para la fabricación de todo tipo de dispositivos a microescala.
Más allá de esto, quien sabe, lo seguro es que estas características las disfruten, o no, las generaciones por venir. Por ahora sigue disfrutando de tu PlayStation.
Computación en la nube
Repasando algunos de los principales sucesos que le dieron origen a la computación, nos encontramos con un hecho realmente relevante que se produjo a finales de la década de los noventa.
Esto fue cuando irrumpió en el mundo de la informática la llamada Cloud Computing, cuyo concepto traducido al español significa “computación en la nube”.
Si bien ya a mediados de la década de los noventa la computación en la nube había comenzado a ser utilizada en ámbitos específicos como una red de computación que permitía acceder a varios beneficios, los cierto es que recién a finales de 2007 la computación en la nube se convirtió en un hecho para los usuarios comunes.
Así fue como surgieron cientos de servicios, hardware y software dedicado a ofrecer este tipo de tecnología a los usuarios de todo el mundo.
Al definir los alcances del concepto de la computación en la nube, debemos decir que se trata de todos aquellos servicios que se ofrecen a través de una red, la cual por lo general es internet, para lo cual se utilizan un conjunto de servidores remotos.
En líneas generales, la computación en la nube es una plataforma online de almacenamiento masivo.
Allí pueden guardarse todo tipo de documentos, aplicaciones y demás, y en función de su gran potencia de procesamiento y sus características, hace posible que puedas acceder a dicho material desde cualquier dispositivo que tenga la posibilidad de conectarse a internet.
Por supuesto que además de poder acceder desde cualquier dispositivo conectado a internet, ya sea desde una computadora o desde un teléfono celular, debes utilizar también alguna aplicación o servicio que te permita acceder a la nube, lo cual en muchos casos también puede llevarse a cabo a través de un navegador web.
En este sentido, actualmente existe una enorme diversidad de opciones disponibles para utilizar la computación en la nube, donde puedes encontrar servicios gratuitos y de pago.
estos servicios debes elegirlos en función de tus necesidades.
Por ejemplo un usuario común que necesita almacenar sólo algunos documentos de texto en la nube, puede recurrir a un servicio gratuito, mientras que una empresa contratará un servicio de pago que le ofrezca mayor capacidad de almacenamiento y funciones pensadas para el ámbito empresarial.
Teniendo en cuenta la evolución que ha tenido en las últimas dos décadas la computación en la nube, podemos decir que en realidad inició la aparición de servicios para los usuarios bastante tiempo antes, cuando se comenzó a utilizar de forma masiva el correo electrónico.
Ten en cuenta que el correo electrónico es considerado un ejemplo pequeño y básico de la llamada tecnología de computación en la nube.
No obstante, fue poco menos de dos décadas cuando los usuarios pudimos acceder a plataformas de computación en la nube para el almacenamiento de contenidos, como así también la disponibilidad de aplicaciones a través de la nube.
Uno de los primeros en este campo fue Google que comenzó a ofrecer a los usuarios una verdadera oficina virtual en la nube.
Microsoft por supuesto no se ha quedado atrás de ello, y lo cierto es que podríamos asegurar que en la actualidad tanto Microsoft como Google son las empresas que brindan la mayor variedad de opciones a través de la computación en la nube.
A estos dos gigantes se les suman otras reconocidas organizaciones que han estado ofreciendo desde hace años sus servicios y aplicaciones dentro del ámbito de la computación en la nube, como es el caso de Dropbox, Amazon Web Services, OwnCloud, Oracle Public Cloud, entre otros.
Sin embargo, los más populares son los servicios de Google, como es el caso de Drive, y las herramientas de Microsoft, como lo es OneDrive.
Tipos de computación en la nube
Dentro de la computación en la nube existe una clasificación que define los diferentes tipos de infraestructura de acuerdo a una serie de característica.
De ello resulta que podemos decir que conviven en la actualidad tres tipos principales de infraestructuras de computación en la nube:
- Pública
- Privada
- Híbrida
Ahora bien, ¿a qué nos referimos puntualmente cuando hablamos de infraestructura?
En líneas generales, debemos decir que la infraestructura de la computación en la nube incluye en el concepto a los servidores, las redes, el almacenamiento de datos y el software de sistemas, es decir los componentes necesarios para poder conformar una red a través de internet.
Cabe destacar que con el fin de poder tener las características adecuadas en relación a las funcionalidades que brinda la computación en la nube, es necesario que los servicios sean virtualizados, es decir que los mismos se encuentran alojados en un conjunto de hardware que es capaz de llevar a cabo las diferentes instancias que son parte del servicio en cuestión.
En lo que respecta a las características propias de cada uno de los tipos de computación en la nube que mencionamos más arriba, a grandes rasgos podemos señalar que cada una de ellas tiene sus propios rasgos distintivos, y es precisamente este aspecto el que las clasifica.
Veamos:
Nube Pública
Como su nombre lo indica, la nube pública o externa es aquella que posee un tipo de infraestructura en la cual los usuarios de la misma hacen uso del hardware y el software de sistema de terceros, los cuales se encuentra ubicados fuera del sitio.
Todos los que lo deseen pueden acceder a este tipo de nube a través de sus credenciales de acceso para compartir contenido con el resto de usuarios que hacen uso de esta red.
Nube Privada
La llamada nube privada o nube interna si bien en su funcionamiento es similar a la nube pública, lo cierto es que su infraestructura se basa fundamentalmente en el hecho de ser una especie de red privada, es decir que sólo tienen acceso a ella aquellos usuarios que son autorizados para ingresar en la misma.
Por lo general, este tipo de infraestructura en la nube es utilizada en empresas, instituciones educativas y diversas entidades, con el fin que los miembros de la misma puedan acceder a información sensible que es protegida de extraños, y es por ello que no cualquiera puede tener acceso a la misma.
Nube Híbrida
Se trata básicamente de una nube cuya infraestructura combina aspectos tanto públicos como privados. Debido a sus grandes posibilidades, suele utilizarse en empresas como método de mantener comunicación fluida con proveedores, vendedores, clientes y demás, claro que allí se comparte el contenido que es utilizado por cada área.
Beneficios de la computación en la nube
Debido a su forma de funcionamiento, la computación en la nube es conocida por ofrecer una importante cantidad de beneficios a sus usuarios, y en ello radica el éxito que han tenido los servicios en la nube durante las últimas dos décadas.
Uno de los principales beneficios que posee la computación en la nube es sin dudas el hecho que hace posible que ya no debas preocuparte tanto por el rendimiento de la computadora que utilizas.
No sólo puedes almacenar contenido en un servidor externo en vez de hacerlo en el propio disco duro de tu PC, sino que además puedes recurrir a la utilización de aplicaciones en la nube, sin necesidad de instalar software en tu equipo.
De esta forma, la computación en la nube te permite reducir drásticamente la demanda de rendimiento de tu computadora.
Cuando utilizas servicios en la nube no necesitás espacio en el disco duro de la PC como así tampoco potencia de procesamiento. De esta forma, logras obtener mayor rendimiento de tu computadora en todas las tareas que lleves a cabo con el equipo.
Por otra parte, entre los principales beneficios de la computación en la nube nos encontramos por supuesto con los procedimientos de almacenamiento.
Ten en cuenta que el espacio de almacenamiento que te ofrece una PC dependerá de la capacidad de su disco duro, mientras que en el caso de la computación en la nube, la disponibilidad de espacio de almacenamiento es prácticamente ilimitada.
Al mismo tiempo, es importante destacar que el almacenamiento en la nube es más confiable.
Ten en cuenta que el disco duro de tu PC puede llegar a fallar e incluso puedes llegar a perder parte o todo el contenido que hayas guardado en él.
Por el contrario, el almacenamiento en la nube posee un sistema mucho más estable que almacena múltiples copias de seguridad, con lo cual los datos se mantienen más seguros.
De forma similar sucede con las aplicaciones, ya puedes recurrir a utilizar software en la nube que no sólo te permitirá reducir el uso de los recursos de tu computadora, y de esta forma obtener un mayor rendimiento del equipo, sino que además no estará ocupando capacidad del disco duro con la instalación de programas.
Asimismo, una gran ventaja de utilizar software en la nube reside en las actualizaciones.
En el caso de las aplicaciones que son parte de la computación en la nube, a diferencia de lo que sucede con el software que instalas en la PC, se caracteriza por disponer de actualizaciones instantáneas, ya que los proveedores de estos servicios mantienen el software que ofrecen siempre actualizado.
Otro de los beneficios de la computación en la nube relacionados al software es la inversión que debes hacer. Cuando instalas un programa en la computadora, en muchos casos debes pagar por él.
En cambio en la nube puedes encontrar una enorme variedad de aplicaciones de uso gratuito o bien disponibles a través de suscripción, lo cual no sólo es mucho más económico, sino que además puedes comprar sólo las funciones que deseas, por ejemplo abonar la suscripción de un software de procesamiento de texto, como el Word de Microsoft, sin necesidad de adquirir la Suite Office completa.
Por supuesto que una de las más grandes ventajas que posee la computación en la nube reside en la posibilidad que te ofrece de poder acceder al contenido y al software que habitualmente utilizas, a través de cualquier dispositivo que permita conectarse a internet.
Por ende, la portabilidad es clave en este tipo de servicios.
Por ejemplo puedes tener acceso a tus documentos, fotos, videos y programas a través de tu computadora, tu teléfono celular, tablet e incluso desde computadoras de terceros, y lo mejor es que este acceso no está limitado por el tiempo y el espacio, es decir que siempre está disponible para ti.
Claro que no todos son beneficios, y quizás podríamos decir que una de las principales críticas que suele recibir la computación en la nube se centra en la seguridad de la información que se almacena en ella.
No obstante, debes tener en cuenta que las empresas que ofrecen servicios basados en la nube están muy comprometidas con la seguridad, y al mismo tiempo siempre puedes proteger tus datos con la utilización de claves de acceso fuertes.
¿Qué es la computación móvil en la nube?
Como su nombre lo indica, la computación móvil en la nube se refiere básicamente al uso de tecnología de computación en la nube a través de cualquier tipo de dispositivo móvil, desde el cual puedes tener acceso al contenido y aplicaciones que están disponibles en la nube.
Por supuesto que para ello, el dispositivo debe contar con la posibilidad de conectarse a internet.
No obstante, en el caso de la computación móvil en la nube, a diferencia de lo que sucede con la computación en la nube tradicional, lo cierto es que muchos usuarios pueden estar utilizando este tipo de servicio y plataforma sin siquiera ser consciente de ello.
En definitiva, en variadas ocasiones instalas en tu teléfono celular aplicaciones que en realidad no se mantienen almacenadas en el dispositivo, sino que poseen una serie de características que permite que el teléfono se conecte a programas que se están ejecutando en servidores remotos.
Precisamente en el hecho que la computación móvil en la nube móvil permita acceder a la información que se encuentra almacenada en servidores remotos a través de tus dispositivos portátiles, es una de las grandes ventajas de esta plataforma, ya que sin dudas esta característica hace que el uso de los sistemas tenga mayor flexibilidad.
Un ejemplo simple y claro de ello es el correo electrónico.
Ya sabes, no necesitas de una computadora que tenga instalado un cliente de correo electrónico para recibir, enviar, leer y escribir tus emails.
A través de la computación en la nube puedes tener acceso a tu casilla de correo desde el teléfono celular, por intermedio de una aplicación que por lo general no se encuentra almacenada en el dispositivo, sino que apela a la comunicación con servidores externos.
Lo cierto es que en la mayoría de los casos, las aplicaciones que sueles utilizar en tu teléfono celular o tablet rara vez almacenan información en dicho dispositivo móvil, por lo que todo el tiempo estás haciendo uso de la computación móvil en la nube probablemente sin siquiera darte cuenta.
Computación ubicua
Se considera a Mark Weiser como el padre de la informática ubicua, también llamada Ubicomp.
En la década de los noventa Weiser manifestó que en el terreno de la computación la informática podría llegar a ser de dos formas diferentes, por un lado inmersa en un mundo en el cual los fabricantes y desarrolladores crearán productos que por sus características se integraran por completo y de forma permanente a la vida cotidiana de los usuarios, y que en el otro extremo encontraríamos un tipo de computación personal útil sin ser intrusiva.
Fue precisamente cuando Weiser manifestó estas grandes diferencias que estaba dando origen a la computación ubicua, la cual fue definida por el propio Weiser de la siguiente manera:
“Inspirado por los científicos sociales, filósofos y antropólogos de PARC, hemos intentado dar una mirada radical a cómo deberían ser la informática y las redes. Creemos que las personas viven a través de sus prácticas y conocimiento tácito, por lo que las cosas más poderosas son aquellas que son efectivamente invisibles en el uso. Este es un desafío que afecta a toda la informática. Nuestro enfoque preliminar: activar el mundo. Proporcionar cientos de dispositivos informáticos inalámbricos por persona por oficina de todas las escalas (desde pantallas de 1" hasta del tamaño de una pared). Esto ha requerido un nuevo trabajo en sistemas operativos, interfaces de usuario, redes, dispositivos inalámbricos, pantallas y muchas otras áreas. Llamamos a nuestro trabajo 'computación ubicua.' Esto es diferente a los PDA, Dynabooks o la información al alcance de su mano. Es invisible, en todas partes la computación que no vive en un dispositivo personal de cualquier tipo, pero está en la carpintería en todas partes”.
“Durante 30 años, la mayor parte del diseño de interfaces y la mayor parte del diseño de computadoras se ha dirigido por el camino de la máquina "dramática". Su ideal más elevado es hacer que una computadora sea tan emocionante, tan maravillosa, tan interesante, que nunca queramos estar sin ella. Un camino menos transitado que llamo el 'invisible': su ideal más alto es hacer una computadora tan incrustada, tan adecuada, tan natural, que la usemos sin siquiera pensar en ella. También he llamado a esta noción 'computación ubicua' y he ubicado sus orígenes en el posmodernismo. Creo que, en los próximos 20 años, el segundo camino llegará a dominar. Pero esto no será fácil; muy poca de la infraestructura de nuestro sistema actual sobrevivirá”.
Teniendo en cuenta los conceptos vertidos por el padre de la computación ubicua, también conocida como la computación omnipresente, podemos decir a grandes rasgos que se trata de una tendencia cuyo objetivo es incorporar la capacidad computacional en objetos cotidianos.
El fin es que dichos objetos puedan comunicarse de forma efectiva, y en función de los datos recolectados lleven a cabo tareas útiles, minimizando la necesidad de interacción del usuario con las computadoras.
Para ello es necesario incluir otros aspectos relevantes, como por ejemplo que dichos objetos o dispositivos informáticos se encuentre de forma permanente conectados a la red, además que deben permanecer disponibles de forma constante.
Asimismo, podemos inferir que todo lo relacionado a la internet de las cosas y la inteligencia artificial cumplen un rol fundamental dentro de la computación ubicua.
En definitiva se requiere de este tipo de tecnología para poder disponer de una computación no intrusiva que sirva para cumplir las tareas que el usuario requiere con la menor intervención del mismo.
Por otra parte, cabe destacar que la computación ubicua suele involucrar por lo general tecnologías de redes y comunicaciones inalámbricas, dispositivos móviles, sistemas integrados, computadoras portátiles, etiquetas de identificación por radiofrecuencia, middleware y agentes de software.
También puede llegar a incluir las capacidades de internet, el reconocimiento de voz y como ya mencionamos, la inteligencia artificial.
Por todo ello, debido a sus características básicas, la computación ubicua es considerada por gran cantidad de expertos como la que será la sucesora de la computación móvil.
Ejemplos de computación ubicua
Dentro de los alcances que definen a la computación ubicua, podemos decir que este tipo de computación es aquel que se da dentro de un entorno en el cual diferentes dispositivos que son omnipresentes, ya que se encuentran en todas partes a tu alrededor, pueden llevar a cabo tareas asignadas por el usuario sin necesidad de la interacción del mismo.
En este aspecto, no sólo es relevante el funcionamiento que tendrá el dispositivo en cuestión, sino también las aplicaciones, las cuales deben estar diseñadas en función de brindar la posibilidad a los usuarios de optimizar las tareas.
Existen los más diversos ejemplos en la actualidad que podríamos tomar como parte de la computación ubicua. Uno muy claro son los smartwatch, que incluyen una serie de funcionalidades que los enmarca en este tipo de computación.
Por ejemplo con un reloj inteligente puedes recibir notificaciones en el momento exacto, como alertas sobre una llamada telefónica la cual puedes completar a través del reloj.
Otro ejemplo muy popular en estos días, que se encuentra relacionado con la mejora de la calidad de vida de las personas, son las llamadas casas o edificios inteligentes.
Estos han sido dotados de un completo sistema de automatización, a través del cual los usuarios pueden llevar a cabo una supervisión permanente de su hogar de manera remota.
Seguramente uno de los ejemplos que primero se te vienen a la mente cuando se habla de computación ubicua es el caso de los teléfonos inteligentes, siendo actualmente uno de los dispositivos de este tipo más popular entre la población mundial, y necesarios además para poder utilizar las aplicaciones adecuadas cuando por ejemplo tienes que controlar un sistema de automatización del hogar.
No obstante, actualmente existe una enorme cantidad de dispositivos y sistemas que pueden enmarcarse dentro de la computación ubicua.
En líneas generales, las empresas y desarrolladores buscan ofrecer una gran gama de productos relacionados a la computación ubicua dentro de distintos campos, incluyendo la energía, el entretenimiento, el cuidado de la salud, seguridad, entre otros.
En cuanto a ejemplos de dispositivos o productos que pueden considerarse están dentro del tipo de computación ubicua, podemos mencionar el Apple Watch, los altavoces inteligentes como Amazon Echo, Google Assistant o Apple HomePod, los vehículos autónomos, las lámparas de luz inteligentes, las cerraduras inteligentes y demás.
En este punto es importante destacar que debido a que los sistemas informáticos generalizados pueden ser capaces de recopilar, procesar y comunicar datos, al mismo tiempo también pueden ser capaces de adaptarse al contexto incluyendo la actividad de dichos datos, por lo que al comprender el entorno, este sistema sin dudas mejora la experiencia cotidiana de las personas.
Computación cuántica
Desde que en 2019 IBM presentará al mercado la primera computadora cuántica, esta tecnología no se ha detenido en ningún momento, debido fundamentalmente a la increíble potencia que se puede obtener de ellas, y que pueden ser un beneficio más que positivo para toda la Humanidad.
Qué es una computadora cuántica?
La computadora cuántica no es más ni menos que una computadora, es decir que puede llevar a cabo las tareas que realiza una computadora común, pero que está diseñada de una manera bastante diferente.
Una de las principales características de las computadoras cuánticas es que no utilizan chips de silicio ni pulsos de corriente como las actuales.
Básicamente se trata de una computadora que hace uso de las propiedades físicas de los átomos, como su sentido de giro, con el propósito de contar bits, es decir unos y ceros.
En la actualidad, nuestro mundo se basa en la computación digital, es decir que se utilizan dígitos binarios, a los que llamamos bits. Estos bits pueden representar un solo valor: “0” ó “1”. En cambio para la computación cuántica, existen los Qubits, es decir los bits cuánticos.
Estos qubits no sólo son capaz de representar los estados “1” y “0” de la computación digital, sino que además son capaces de representar estados intermedios, llamados “entrelazamiento cuántico” y “superposición”.
Esto es debido a que los átomos se puede sobreponer unos sobre otros ofreciendo varios estados de forma simultánea, lo que significa que estas computadoras pueden procesar información de manera mucho más rápida y profunda que cualquier otro dispositivo que conozcamos.
Sin embargo, este proceso trae aparejados ciertos inconvenientes si las condiciones de uso no son perfectamente correctas.
Para que la computación cuántica funcione, es necesario que el mencionado entrelazamiento cuántico entre los qubits tiene que ser correcto, es decir que la tasa de error debe ser mínima para poder operar a total potencia.
Esto significa que los desarrolladores deben enfrentarse a un doble desafío: Hacer que estas computadoras cuánticas procesen cada vez más información, pero manteniendo siempre un alto grado de seguridad y precisión al momento de alimentar a la computadora con esos datos.
Para qué sirve una computadora cuántica?
No cabe ninguna duda que la computadora cuántica con el paso de los años se convertirá en un dispositivo que será utilizado y beneficiará con su poder de cómputo a muchos ámbitos, incluyendo al desarrollo, la investigación, la industrialización y muchas otras áreas.
Sin embargo, la computación cuántica también servirá para poder ofrecerle a los seres humanos una nueva forma de ver las cosas, es decir que todos viviremos una profunda transformación en todos los aspectos de nuestro día a día.
Esta transformación implica por supuesto que las empresas prestadoras de estos servicios van a necesitar cada vez más de nuestros datos privados para poder ofrecernos servicios más sofisticados y puntuales que nos puedan ser de utilizada para nuestras actividades diarias, y deberán cavar con más profundidad en nuestra intimidad para conseguirlo.
Un ejemplo claro de ello es la llamada “Analítica aumentada”, la cual intenta hallar una nueva perspectiva sobre la forma en que los datos recolectados por empresa y organismos deben ser procesados y ordenados, aun lo más simples y mundanos, con el objetivo de que puedan ser más útiles los efectos de ofrecernos experiencias más completas de uso de sus productos.
Si esto no es un problema, los beneficios que trae consigo la computación cuántica son maravillosos.
Si los datos que les ofrecemos o recolectan son utilizados con precisión, podremos obtener mejores resultados en nuestros dispositivos, desde el entretenimiento provisto por Netflix, YouTube o Spotify, hasta complejos servicios de home banking.
También en la tecnología de la Inteligencia artificial la computación cuántica puede ser una alternativa más que interesante para conseguir los objetivos que los científicos se han impuesto durante años, debido sobre todo a la enorme capacidad de proceso que tienen este tipo de computadoras cuánticas.
La inteligencia artificial requiere el proceso de incontables millones de datos para poder ofrecer resultados, ya que de otro modo podría brindar una experiencia negativa para los servicios que hagan uso de ella.
En este escenario la computación cuántica puede ofrecer la capacidad de trabajar con miles de millones de datos con una eficiencia incomparable, además de exactitud.
Esto permitirá que todos los procesos involucrados con la inteligencia artificial puedan tener una respuesta mucho más directa y precisa, con lo que se gana en eficiencia.
Todo esto le permitirá a la Humanidad la creación de tecnología que hoy apenas soñamos, como la posibilidad de contar con humanoides y robots autónomos para asistirnos en las tareas, además del desarrollo del IOT (Internet of Things) mucho más consolidado que ahora.
Otro campo en que podría ser muy útil las computadoras cuánticas es la realidad virtual, que como sabes es la tecnología que te permite interactuar digitalmente con el mundo que te rodea.
La realidad aumentada es una compleja tecnología utilizada en muchos ámbitos, desde el entretenimiento hasta la investigación científica.
Si combinamos la potencia de la computación cuántica, la inteligencia artificial y la realidad aumentada, podemos asegurar que estamos en las puertas de un mundo tecnológico que apenas podemos imaginar, y que seguramente nos llevará a otros universos de conocimiento de los cuales todavía no tenemos ni idea que existan.
Computación gráfica
Al hablar de computación gráfica, lo primero que debes saber es que la llamada computación gráfica se refiere al ámbito de la informática visual.
Básicamente se trata de la rama de la informática en la cual las computadoras son utilizadas para crear imágenes visuales de manera sintética, lo cual además permite modificar la información visual y espacial del mundo real que nos rodea.
Cada vez que una computadora es utilizada para crear medios visuales, a través de software específico para dichos fines, podemos decir que estamos ante la computación gráfica.
Y en este punto es donde encontramos los llamados gráficos por computadora, que popularmente se conocen con sus siglas en inglés “CG”.
Dentro de los llamados CG se pueden encontrar diferentes tipos de imágenes, incluyendo las imágenes bidimensionales conocidas como 2D, y las tridimensionales denominadas frecuentemente como gráficos 3D.
La diferencia entre ambos tipos de imagen reside en el hecho que las imágenes bidimensionales 2D se caracterizan por ser imágenes planas, y aunque en algunos casos se aplican trucos visuales para generar una perspectiva que se asimile a la tridimensional, lo cierto es que sólo crea esta ilusión en el espectador.
En cambio, cuando hablamos de imágenes tridimensionales 3D hacemos referencia a objetos que se hallan inmersos en un espacio virtual tridimensional, siendo todo ello creado a través de software y que incluye una estructura alámbrica (forma básica del objeto) y polígonos, a lo que luego se le añaden texturas e iluminación, para finalmente ser renderizados.
En este punto es importante señalar que durante el proceso de renderizado lo que sucede es que los distintos elementos que conforman la escena se unen y se compilan, para dar como resultado un archivo de imagen 3D.
Ejemplos de computación gráfica
Dentro del ámbito de la computación gráfica actual, existen cientos de ejemplo de trabajos que se realizan a través de la creación de gráficos para generar imágenes en 2D y 3D.
Los más conocidos por supuesto son aquellos que se aplican en el mundo del cine, la televisión y los videojuegos.
Hoy puedes encontrar cientos de efectos dentro de películas, series y videojuegos interactivos, que han sido creados gracias a la computación gráfica.
Una de las principales características, cada vez más presente, es la posibilidad que poseen estos gráficos de plasmar creaciones realistas, que incluso pueden combinarse con un escenario de la vida real, como podemos ver en muchas películas actuales.
En este sentido, cabe destacar que incluso existen películas que incluyen secuencias completas de acción totalmente digitales, es decir que para crearlas no fue necesario filmar absolutamente nada en la vida real, sino que toda la escena fue creada en una computadora.
Incluso también puedes encontrar películas completas que han sido creadas de esta forma.
Claro está que uno de los casos realmente destacables dentro del ámbito de la computación gráfica son los videojuegos.
En su gran mayoría han sido creados en su totalidad por gráficos de computadora, y que por su realismo te permite sumergirte en mundo irreales como si se tratase de escenarios habituales de la vida cotidiana.
Se destaca aquí la realidad virtual, la cual además te brinda la posibilidad de sentirte parte de ese mundo creado por computadoras, permitiéndote obtener una experiencia que en muchos casos se asemeja a la vida real.
Computación distribuida
Si buscas un ejemplo concreto para poder acercarte a la definición de la llamada computación distribuida, podemos mencionar la World Wide Web, la cual es el segmento de internet con el que la mayoría de nosotros se encuentra más familiarizado.
En este caso hay una enorme cantidad de computadoras que realizan diferentes tareas de manera simultánea, cada una de ellas con una función específica dentro del sistema, mientras nosotros como usuarios navegamos por internet.
Por ende, podríamos definir a la computación distribuida como aquel campo de la informática en el cual se hace uso de una red de muchas computadoras, y en la cual cada una de estas computadoras lleva a cabo una parte específica de una tarea general, con el objetivo de alcanzar un resultado computacional puntual.
El hecho de utilizar varias computadoras reside en la posibilidad de realizar dicha tarea de forma más rápida.
No obstante, la computación distribuida no sólo se caracteriza por alcanzar niveles superiores en la rapidez de los procesos, sino que además una de sus cualidades es que brinda la posibilidad que muchos usuarios puedan interactuar y conectarse entre sí.
En un sistema de computación distribuida, el procesamiento de los datos digitales se realiza a través de un conjunto de computadoras comunicadas entre sí.
Al mismo tiempo es importante destacar que en este contexto es posible procesar simultáneamente múltiples piezas de un gran conjunto de datos para lograr la velocidad deseada.
En muchos casos, esta gran cantidad de información puede ser dividida en diferentes partes y luego recombinarse, como sucede con las grandes bases de datos o incluso como ocurre actualmente con internet.
Ejemplos de computación distribuida
Mencionamos en principio que Internet es considerada perteneciente al ámbito de la computación distribuida, como también sucede con los sistemas de telecomunicaciones, y lo cierto es que se trata de verdaderos modelos de computación distribuida ubicuos.
En ambos casos nos encontramos con que se hallan compuesto de una multitud de computadoras, cada una de las cuales autónoma, que trabajan para contribuir al sistema completo.
Otros ejemplos que podemos mencionar dentro de la computación distribuida son los sistemas de almacenamiento, las redes de intercambio de información, el modelado científico a gran escala, el modelado ambiental, los sistemas de control industrial, los sistemas de control de aeronaves, entre otras.
Asimismo, debemos tener en cuenta que toda la información que ha sido almacenada en las computadoras que se encuentran conectadas a esa misma red, se maneja de forma autónoma.
En el ámbito cotidiano, la computación distribuida no sólo se da en Internet, donde un servidor del proveedor de servicios de internet actúa como puerta de enlace entre nuestra computadora y el sistema computacional de internet, sino en otras aplicaciones.
Un ejemplo claro de ello, si bien su volumen es sustancialmente menor, se da cuando en una casa varios disponen de una computadora que incluye varios procesadores en la misma, con lo cual la computadora puede llevar a cabo los procesos de manera separada, lo cual sin dudas permite lograr una mayor rapidez y eficacia.
Esto es conocido dentro del ámbito informático doméstico como multiprocesamiento, y en definitiva se trata de un sistema que pertenece al tipo de computación distribuida.
La computación distribuida y la Grid Computing
¿Podemos decir que la computación distribuida es lo mismo que la llamada Grid Computing? Veamos...
En principio debes saber que la Grid Computing se refiere a la computación en cuadrículas que funciona comunicándose a través de una red, es decir que se trata de un sistema conformado por varias computadoras que comparten tareas entre sí.
En cuanto a las tareas que comparten, las mismas pueden ser muy variadas, desde resolver grandes cálculos matemáticos a servir como plataforma para el almacenamiento de datos.
Todo estos es a través de un sistema de cuadrículas, en las que los equipos conectados a la red se complementan para poder completar los procesos de forma eficaz y rápida.
El proyecto de la creación de una plataforma de computadoras trabajando en cuadrícula, es decir el concepto de Grid Computing, surgió hace ya varios años gracias a un desarrollo impulsado por Ian Foster, Carl Kesselman y Steve Tuecke, que buscaban crear una serie de herramientas que les permitiera manejar la gestión de la computación.
El objetivo de los desarrolladores era poder gestionar entre otras cosas el movimiento de los datos, el almacenamiento y al mismo tiempo poder disponer de una infraestructura adecuada para poder administrar grandes redes.
Así surgió esta nueva técnica cuya principal característica reside en ser realmente flexible, y que al poder utilizar varias computadoras a la vez logra una potencia de procesamiento increíble, gracias a la utilización de los recursos de múltiples computadoras.
Por otra parte, a diferencia de lo que sucede con la llamada computación en clúster, en el caso de la Grid Computing no es necesario que las computadoras que acceden a la red dispongan del mismo sistema operativo o hardware, se controlan de forma independiente y descentralizada, con lo cual el sistema se vuelve realmente flexible.
Para tener una idea de las características que posee la Grid Computing podemos mencionar el ejemplo más representativo, el SETI@home.
A grandes rasgos se trata de un proyecto creado en la plataforma informática Berkeley Open Infrastructure for Network Computing y desarrollado por el Space Sciences Laboratory, que permite que todas las computadoras del mundo puedan sumarse a la red creada para buscar vida inteligente en el espacio.
Todos los que participan de este proyecto aportan el potencial de su computadora para llevar a cabo análisis de señales de radio que buscan inicios de inteligencia extraterrestre.
En definitiva, todas estas computadoras se unen para crear una supercomputadora virtual.
De esta forma, con computadoras distribuidas a lo largo y ancho de todo el planeta, se conforma la red de SETI@home, que puede ser encasillada dentro de la tipografía de la Grid Computing.
Deja una respuesta