Las generaciones de computadoras: 1, 2, 3, 4, 5, 6, 7 y... la octava generación

Seguramente estas leyendo esto con tu smartphone en la mano ...

Te preguntaste alguna vez que fue lo que pasó para llegar a esto? Cuales fueron los sucesos en la historia de la computación que terminaron en la notebook que usas para trabajar?

Todo lo que sucedió es realmente apasionante! Aquí te lo contamos con lujo de detalles! (si no quieres leer tanto, te preparamos un Resumen de las Generaciones de la computadora.)

 Aquí repasamos cada una de las distintas generaciones de computadoras, desde 1943 hasta la actualidad. La historia de cada desarrollo que marcó la evolución de la informática y la tecnología.

Para conocer esta historia, lo primero que tenemos que saber es que la llamada “Generación de computadoras” es un término relacionado con la evolución y adaptación de la tecnología y de la informática.

Básicamente cada avance importante, como la reducción del tamaño de los elementos, como así también el aumento de su capacidad y velocidad, produce un salto generacional.

A principios de la década de los 80, era prácticamente imposible encontrar un hogar que tuviera una computadora.

Hoy es prácticamente imposible encontrar un lugar en el mundo en donde una computadora no se encuentre realizando una tarea.

Todo esto tuvo su comienzo en los albores de la década del 40 con ENIAC, y la última etapa de la quinta generación de computadoras fue anunciada como la de las "computadoras inteligentes" basadas en Inteligencia Artificial, iniciada por un famoso proyecto en Japón, y que finalizó en un estrepitoso fracaso.

Haz click aquí para conocer una completa cronología, año a año, de la historia de la computadora

Índice de Contenidos
  1. Generaciones de la computadora
  2. La Primera Generación de Computadoras
  3. La Segunda generación de Computadoras
  4. La Tercera generación de Computadoras
  5. La Cuarta Generación de Computadoras (1981-1990)
  6. La Quinta Generación de Computadoras (desde 1991)
  7. La sexta generación de computadoras
  8. Séptima Generación de computadoras
  9. Octava generación de computadoras
  10. El Futuro - Aquí viene el ordenador cuántico
  11. Los beneficios de la computación cuántica
  12. La tecnología cuántica y la realidad aumentada

Generaciones de la computadora

Cuando hablamos de la historia de la informática, nos referimos como Generaciones de las computadoras a las diversas etapas en la que está separada su evolución. Esto básicamente significa que conforme las computadoras se hicieron más poderosas y pequeñas, fueron avanzando de generación.

En la actualidad podemos decir que existen hasta 5 generaciones de computadoras, sin embargo hay quienes van más allá y mencionan hasta una 8° generación, muy avanzada y futurista, la cual todavía ni siquiera está en desarrollo.

En este punto, la evolución de las computadoras se suele categorizar de la siguiente manera:

  • Primera generación, desde 1940 hasta 1956: Computadoras de válvulas de vacío
  • Segunda generación, desde 1956 hasta 1963: Computadoras de estado sólido con transistores
  • Tercera Generación, de 1964 hasta 1971: Computadoras de estado sólido con circuitos Integrados
  • Cuarta generación, desde 1971 hasta el presente: Computadoras de estado sólido con microprocesadores
  • Quinta generación, transcurriendo: Computación cuántica. Inteligencia artificial
  • Sexta, séptima y octava generación: Algunos autores incluso llevan la evolución de las computadoras más allá de nuestros días. Sin embargo, son escenarios puramente teóricos, alejados del objetivo de este post.

En este post repasaremos cómo se han ido sucediendo las generaciones de la computadora. Partiendo de 1943 hasta nuestros días.

La Primera Generación de Computadoras

Desde la Colossus en 1943 a la Univac, fueron los primeros pasos que dieron lugar a la primera generación de computadoras.

  • Primera generación de computadoras: Colossus

En 1943, un proyecto británico, bajo el liderazgo del matemático Alan Turing, puso en operación una serie de máquinas más ambiciosas, las Colossus, pues en vez de relés electromecánicos, cada nueva máquina usaba 2.000 válvulas electrónicas.

Colossus trabajaba con símbolos perforados en una argolla de cinta de papel, que era insertada en la máquina que tenía lectura fotoeléctrica, comparando el mensaje cifrado con los códigos conocidos hasta encontrar una coincidencia. Procesaba 25.000 caracteres por segundo.

  • Primera generación de computadoras: ENIAC

El 14 de febrero de 1946, nació la ENIAC (Eletronic Numerical Interpreter and Calculator), también conocida por su traducción al castellano como “Computadora e Integrador Numérico Electrónico”, proyectada para fines militares por el Departamento de Material de Guerra del Ejército de los EUA, en la Universidad de Pensilvania.

Era la primera computadora digital electrónica en gran escala y fue proyectada por John W. Mauchly y J. Presper Eckert. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo 17.468 válvulas electrónicas.

Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Observando este inconveniente, Eckert, modificó el funcionamiento de ENIAC haciendo que las válvulas funcionaran a una tensión menor que la necesaria, reduciendo así las fallas debido al sobrecalentamiento del ambiente.

Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. ENIAC contaba con 500.000 conexiones soldadas, y como podremos observar por las innumerables válvulas de vacío que la componían, el consumo eléctrico era en extremo elevado.

  • Primera generación de computadoras: EDVAC, EDSAC y LEO

La sucesora de la ENIAC fue la EDVAC (Electronic Discrete Variable Computer) o “Computadora Electrónica de Variables Discretas”, traducido al español. La EDVAC fue planeada para acelerar el trabajo almacenando programas y datos en su expansión de memoria interna.

Los datos eran almacenados electrónicamente en un medio material compuesto de un tubo lleno de mercurio, conocido como línea de retardo, donde los cristales dentro del tubo generaban pulsos electrónicos que se reflejaban hacia delante y atrás, tan lentamente como podían, semejante a un desfiladero que retiene un eco, que Eckert descubrió por casualidad al trabajar con los radares.

Otra gran característica de la EDVAC era poder codificar la información en forma binaria en vez de la forma decimal, reduciendo bastante el número de válvulas.

En 1947, John Bardeen, William Shockley y Walter Brattain inventan el transistor, que en pocos años cambiaría por completo el panorama de las computadoras.

En 1949, surge la EDSAC (Eletronic Delay Storage Automatic Calculator) o “Calculadora Automática con Almacenamiento por Retardo Electrónico” en español, la cual marcó el último gran paso en la serie de avances decisivos inspirados por la guerra. En 1951, surge la primera computadora comercial, la LEO.

  • Primera generación de computadoras: UNIVAC

La primera computadora comercial de gran escala fue UNIVAC, (Universal Automatic Computer), que en español significa “Computadora Automática Universal”, diseñado en EEUU en el año 1951, el cual era programado tocando cerca de 6.000 llaves y conectando cables a un panel.

La entrada y salida de información era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, consumía 14.000 W.

Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.

Entre 1945 y 1951, el sistema Whirlwind, del MIT, fue la primera computadora que procesaba información en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir.

La Segunda generación de Computadoras

Se considera que en 1947, con la llegada del transistor, surge lo que sería la segunda generación de computadoras.

En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Las computadoras con transistores surgen en los años 50, pesando 150 kg, con consumo inferior a los 1.500 W y mayor capacidad de proceso, velocidad y muchas otras ventajas con respecto a sus antecesores valvulares.

Ejemplos de las primeras computadoras a transistores son el IBM 1401 y el Burroughs B 200. En 1954 IBM comercializa el 650, de tamaño medio. La primera computadora totalmente transistorizada fue el TRADIC, del Bell Laboratories.

El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseía dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lápiz óptico, a modo de ratón

  • Segunda generación de computadoras: Burroughs

En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Texas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado.

Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.

La Tercera generación de Computadoras

La tercera generación de computadoras es de la década del 60, con la introducción de los circuitos integrados.

El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el Burroughs B-3500.

  • Tercera generación de computadoras: IBM 360

En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformó en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation.

Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo.

En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala.

Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5.

En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a RadioShack el TRS-80 y la Commodore el PET. La plantilla Visicalc de 1978/9, primer programa comercial, de Software Arts.

En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982.

El Sinclair ZX81/ZX Spectrum fue un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambridge en U.K. Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambridge. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA.

La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K.

En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido y un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial.

El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno. El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana.

Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta.

  • Tercera generación de computadoras: Osborne 1

Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico.

Disponía de conectores para un monitor externo, puertos serie RS-232C y paralelo IEEE-488 o Centronics. El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.

El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.

La Cuarta Generación de Computadoras (1981-1990)

Con la empresa IMB a la cabeza, la cuarta generación de computadoras llegó en 1980, con el equipo llamado PC-XT.

  • Cuarta generación de computadoras: 1980-PC XT

Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT. IBM PC-XT En la década de 80, fue creado el IC LSI (Integratede Circuit Large Scale Integration), que en español significa, “Circuito Integrado en Ancha Escala de Integración”, donde fueron desarrolladas técnicas para aumentarse cada vez más el número de componentes en el mismo circuito integrado. Algunos tipos de IC LSI incorporaban hasta 300.000 componentes en un único chip.

El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ. Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores.

La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseía una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones asíncronas.

El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado grandes mainframes y “pequeños ordenadores”.

Surgieron en el transcurso del uso de la técnica de los circuitos LSI (Large Scale Integration) y VLSI (Very Large Scale Integration). En ese periodo surgió también el procesamiento distribuido, el disco óptico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc.

  • Cuarta generación de computadoras: 1982- Surge el 286

Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.

  • Cuarta generación de computadoras: 1985- El 386

Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares gráficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.

  • Cuarta generación de computadoras: 1989- El 486 DX

A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rápida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA.

Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95.

La Quinta Generación de Computadoras (desde 1991)

Los enormes avances en informática y tecnología permitieron generar un importante cambio en la década de los 90, cuando se estima que se inició la quinta generación de computadoras.

Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades.

Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI fue sustituida por la ULSI (Ultra Large Scale Integration).

El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas.

La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.

  • Quinta generación de computadoras: 1993- Nace el Pentium

Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance. Este avance en la velocidad y capacidad de procesamiento están ligados firmemente a la aparición en el mercado de los procesadores de Intel Pentium, el primero de ellos, el Pentium I en el año 1997, el Pentium II en 1999 y finalmente el Pentium IV, en el año 2001.

  • Quinta generación de computadoras todavía entre nosotros

Hoy en día sólo han quedado dos combatientes en el terreno de los procesadores para computadoras, Intel y AMD. Entre ambos fabricantes cubren casi la totalidad de las necesidades de proceso de cómputo en ámbitos como el hogar, la oficina y la industria, y han puesto en el mercado CPUs con velocidades y rendimientos imposibles de imaginar tan sólo una década atrás.

Entre los más destacados productos de estas firmas podemos mencionar los procesadores Intel Core, en sus variantes i3, i5 e i7 de dos o cuatro núcleos y velocidades de reloj que superan ampliamente los 3.4 Ghz. En cuanto a AMD, su modelo Fusion es uno de los diseños más avanzados, ya que logra combinar en la misma cápsula de la CPU al chip gráfico. Otro acierto de la firma es el Phenom II, el cual puede llegar a montar en su interior hasta 6 núcleos corriendo a 3.6 Ghz.

Luego de ellos vendrán el iPad de Apple, el Apple Watch, Android, Windows 10 y muchas otras innovaciones. Ya en el año 2016 la Universidad de Maryland, College Park, activa por primera vez una computadora cuántica reprogramable, que daría paso a muchas otras.

  • Quinta generación de computadoras: 2019 – Computadoras cuánticas

2019 es el año en que IBM presenta al mundo la primera computadora cuántica comercial, llamada IBM Q System One. Este es considerado como uno de los saltos más importantes en la historia de la computación.

Si queremos conocer que es lo que va a pasar de aquí en adelante con las computadoras, debajo de estas líneas encontraremos todos los desarrollos que se están gestando en este momento. Muchos de los cuáles seguramente en un tiempo no muy lejano pasarán a ser parte de nuestro día a día.

La sexta generación de computadoras

La sexta generación será desarrollada en torno a las computadoras inteligentes basadas en redes neuronales artificiales.

Una de las características que definirán a la sexta generación serán las computadoras inteligentes basadas en redes neuronales artificiales. También llamadas “cerebros artificiales”, estas supercomputadoras utilizarán materiales semiconductores, que como primera ventaja, permiten aprovechar toda su energía sin disiparla en calor.

Esto significa que toda la potencia sea puesta al servicio de realizar cálculos, en lugar de perderse en calor generado por su funcionamiento. Usando materiales superconductores, los científicos especulan que se pueden obtener hasta 30 veces más potencia que un procesador de silicio en la misma frecuencia. Imaginen lo que podremos hacer con eso en nuestros escritorios.

Lamentablemente, todavía falta para que eso se haga realidad, sin embargo se encuentra en pleno desarrollo, por lo cual seguramente tendremos noticias en pocos años más. De cualquier manera, los científicos hacen milagros con los procesadores, logrando que sean cada vez más pequeños, potentes y que requieran menos energía para funcionar.

Otro punto de vista que está siendo considerado, y quizás sea el enfoque más aceptado en el futuro, es el uso del procesamiento paralelo. Este procesamiento paralelo, dicho en una forma muy básica, no es otra cosa que múltiples procesadores trabajando juntos.

Séptima Generación de computadoras

La mayoría de los científicos aseguran que la séptima generación de computadoras se definirá por el uso masivo de redes de área mundial.

Gracias a todos los fantásticos desarrollos en hardware y software en general conseguidos en todas las generaciones anteriores, se nos abrió una puerta hacia una época de descubrimientos importantísima.

Por esa ventana dimos el salto hacia el conocimiento, todo para conseguir nuevos avances que nos permitieran seguir hacia más adelante todavía, pero con más conocimientos y herramientas para entender mejor lo que tenemos bajo el microscopio.

Según muchos expertos, científicos e investigadores, la séptima generación de computadoras se definirá por el uso masivo de redes de área mundial, o Wide Area Network. Otro punto por el cual se conocerá a esta generación de computadoras es por el ya mencionado procesamiento paralelo, técnica también conocida como computación distribuida.

Esta computación distribuida utilizará arquitecturas combinadas del tipo  Paralelo/Vectorial. Esto básicamente significa que trabajarán simultáneamente cantidades realmente impresionantes de procesadores, computadoras y otros tipos de hardware diverso.

Todo con el objetivo de llevar a cabo la mayor cantidad de tareas posibles en el menor tiempo posible.

Con estas implementaciones se conseguirán velocidades de proceso que en la actualidad sólo soñamos. Con estas velocidades de proceso y tasas de transmisión, gracias a las redes de área mundial, podremos acceder a todo tipo de servicios en línea de forma instantánea y en tiempo real.

Octava generación de computadoras

En la octava generación de computadoras no se necesitarán periféricos de ningún tipo para operarla, ya que contaremos con implantes de nanotecnología y servicios alojados en la nube.

A pesar que la tecnología cada día que pasa nos asombra más con sus descubrimientos y avances, lo cierto es que cada cierto tiempo se llega a un cuello de botella. Este cuello impide que se pueda seguir avanzando hasta tener todas las respuestas.

Sin embargo, los científicos no dejan de alucinar, y de teorizar. Es por ello que los que veremos a continuación es posible que sólo lo veamos en una peli de ciencia ficción. Sin embargo, quien diría en los años 1950 que investigaríamos la superficie de Marte con unos robots a control remoto. Sólo en una película.

Muchos investigadores y científicos sostienen y coinciden en que la octava generación de computadoras se caracterizará por la ausencia de medios físicos con los cuales controlar esa tecnología. Es decir que ya no tendremos ratones, pantallas o interfaces físicas para darle órdenes a los dispositivos.  Todo esto será reemplazado por implantes de nanotecnología y servicios alojados en la nube.

Estas teorías se basan en los estudios y avances que se están llevando a cabo en la actualidad con la tecnología nanométrica.  Esta tecnología, también llamada nanotecnología molecular, se encarga de estudiar las posibilidades que tenemos de manipular los átomos y moléculas de los materiales a escala micrométrica.

Esto nos serviría para poder desarrollar y fabricar dispositivos ultra miniatura, que pueden ser usados en medicina y otros campos de desarrollo.

Pero estas tecnologías seguramente serán disfrutadas por las generaciones que vienen detrás de nosotros, quienes las usarán de base para desarrollar otras cosas ya directamente fuera de nuestra imaginación.

El Futuro - Aquí viene el ordenador cuántico

IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.

El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.

Este tipo de computación beneficiará, con el paso de los años, a muchos ámbitos, no sólo al de la investigación o el desarrollo, sino que también será una parte más que importante de nuestra vida, ya que permitirá desarrollar tareas que al día de hoy son imposibles de llevar a cabo debido a la relativa poca potencia de cálculo de las computadoras modernas.

Los beneficios de la computación cuántica

Este mayor poder de cómputo permitirá, entre otras cosas, una transformación total de cómo hacemos las cosas los seres humanos, y no cabe ninguna duda que con el paso de los años en buena medida dependeremos de su funcionamiento para poder llevar adelante nuestras actividades. En este punto, sólo el tiempo dirá si es una buena idea o no.

Esta transformación por supuesto implica que cada vez más se magnifique el uso de nuestros datos para poder brindarnos servicios más puntuales, así como también para ofrecernos beneficios para nuestro trabajo o actividad diaria. Un ejemplo de ello es la llamada “Analítica aumentada”, la cual intenta encontrar una nueva mirada sobre la forma en que los datos recolectados sean procesados y ordenados, aun lo más simples y mundanos, de una manera en que puedan ser más útiles.

Si estos datos son usados con precisión, pueden mejorar en mucho el rendimiento de la mayoría de los servicios que utilizamos en la actualidad, desde YouTube hasta el Home Banking. Se considera que hasta el momento, el proceso de la incontable cantidad de datos de todos los habitantes que usan servicios digitales a diario es algo que excede a la informática moderna, y por este motivo se busca en la computación cuántica un modo de encontrar la solución a esta problemática.

Otro punto en donde la computación cuántica puede ser el futuro de la informática es en el ámbito de la Inteligencia artificial, ya que la tecnología cuántica podrá trabajar con miles de millones de datos con mucha mayor facilidad que en la actualidad, lo que facilitará mucho el análisis de los mismos sean mucho más directos y que las respuestas de los diferentes mecanismos que utilicen la inteligencia artificial puedan ser mucho más rápidos y precisos.

Asimismo, la relación entre la inteligencia artificial y la computación cuántica podrá ofrecernos escenarios que hoy en día son considerados de ciencia ficción, como por ejemplo, la aparición de humanoides, robots con formas humanas diseñadas para brindarnos su ayuda donde sea que las personas la necesiten. No es de extrañar que con el paso del tiempo, los humanoides sean considerados como parte de un hogar, así como hoy consideramos a la tecnología de Internet de las cosas (IOT) una asistencia que cada vez se está volviendo más irremplazable.

La tecnología cuántica y la realidad aumentada

Como sabemos, la tecnología de la realidad aumentada es una de las formas más modernas de poder interactuar con el mundo que nos rodea. Desde la simple aplicación en el entretenimiento hasta la incorporación en muchas industrias para el desarrollo, la realidad aumentada es una tecnología que llegó para quedarse, y es capaz de brindarnos resultados increíbles, en términos de velocidad y comodidad.

Si a la realidad aumentada le sumamos la potencia de cómputo cuántica, podremos obtener desarrollos impensados hasta hace unos pocos años atrás, como por ejemplo el diseño de espacios inteligentes, como las llamadas “Smart Cities”, ciudades por completo automatizadas, y que sería bastante improbable de poner en práctica sin la ayuda de una tecnología de computación adecuada en términos de velocidad y potencia.

La computación cuántica, con su promesa de procesar datos a velocidades y eficiencias sin precedentes, está marcando el comienzo de una nueva era en la tecnología de la información. En este panorama, Google, el gigante indiscutible de los motores de búsqueda, está a la vanguardia, no solo en la búsqueda en internet, sino también en la innovación de herramientas de productividad como Google Workspace. Al invertir en la computación cuántica, Google no solo busca mejorar la rapidez y precisión de sus servicios de búsqueda, sino también transformar Google Workspace, su suite de colaboración y productividad empresarial. La integración de la computación cuántica podría revolucionar cómo Google Workspace maneja el procesamiento de datos, la seguridad y la eficiencia en aplicaciones como Gmail, Calendar y Drive. Este avance tecnológico no solo reafirma el liderazgo de Google en la innovación, sino que también promete redefinir la manera en que las empresas y los individuos interactúan y colaboran en el espacio digital, abriendo nuevas posibilidades en la gestión de grandes volúmenes de información y en la implementación de soluciones avanzadas de inteligencia artificial.

Graciela Marker

Periodista independiente con más de 20 años de experiencia en medios gráficos, audiovisuales y digitales. Formada académicamente en periodismo digital y comunicación multimedia, ámbito en el que se desenvuelve hace dos décadas. Especializada en ámbitos tales como la informática y la logística empresarial, entre otros.

Subir

Usamos cookies para darte una mejor experiencia de navegación. Si continuas navegando, aceptas su uso. Más Información sobre nuestras Cookies