Saltar al contenido

Sobre los ordenadores: la ley de Moore, el procesamiento en la nube y las subscripciones

Vamos a cambiar un poquito de tercio hoy, hablando de un tema técnico, pero del que se pueden sacar algunas ideas interesantes respecto al mundo en el que vivimos. Primeramente, daremos un par de pinceladas sobre lo que es la ley de Moore —pensando sobre todo en aquellos a los que las cosas informáticas les importan entre poco y nada—, para después explorar su historia y sus consecuencias, señalando cómo, aun estando hoy ya muy cerca de su final, su espíritu va a seguir marcando el futuro de las sociedades capitalistas del primer mundo. Temas como el fuerte progreso o la inevitable obsolescencia, propias de la circuitería, junto con la idiosincrasia del logical —se pronuncia mejor que software, pero no termina de sonar bien—, definen esta cuestión. Hay muchos palos que tocar, así que, sin más dilación, empecemos.

Dicho muy rápidamente, esta ley sostiene que cada dos años se duplica el número de transistores en un microprocesador; y es que, al empequeñecerlos, se consiguen concentrar más en menos espacio. Esto está directamente relacionado con un aumento de la potencia, con el abaratamiento de la tecnología y con su obsolescencia; sin olvidar el considerable incremento de la eficiencia energética. Esta circunstancia se viene dando desde los años 70, y se prevé que aún se cumpla hasta finales de la década de 2020. En un principio, pecó de optimista; pero, desde los 80 y, especialmente, durante la primera década del siglo XXI, se cumplió con creces, empezando a ralentizarse después. La razón por la cual esto ocurre es muy sencilla: desde mediados del siglo XX, la informática se ha demostrado como el motor de las democracias liberales y, por lo tanto, los agentes económicos interesados en invertir en su desarrollo no han dejado de crecer a lo largo y ancho del planeta. Esta tendencia permanecería así, si no fuera porque existe un límite físico a partir del cual no se pueden fabricar transistores más pequeños. Hoy en día, los microprocesadores más avanzados de consumo rondan los 5nm (50.000 mide un pelo humano, 6.000 un glóbulo rojo y 100 nuestro amigo el coronavirus), y esa frontera la empezaremos a alcanzar en torno a 2025, cuando consigamos hacer transistores de 1 nm (un átomo ‘mide’ 0,12 nm); lo que nos permite suponer que estos últimos microprocesadores clásicos estarán en el ordenador más barato para 2030. Puede ser que, después de esto, se consigan mejorías a través de otros materiales distintos al silicio o mediante el desarrollo de la computación cuántica; pero estas innovaciones no estarán encima de nuestra mesa hasta, por lo menos, 2045 —mi quiniela respecto al primer ordenador personal cuántico—. Otro tema sería hablar de la eficiencia de los programas; dado que, igual que existe un impedimento material muy claro, que limitará la potencia de procesado, la genialidad de los programadores y su capacidad para optimizar las aplicaciones a lo largo del tiempo no tiene un final concreto (eso sí, estas mejoras serán irregulares e incomparables con las posibilidades que da el duplicar los transistores cada dos años).

En este contexto tecnológico se han desarrollado los últimos cincuenta años; y, desde aquí, se pueden inferir innumerables ideas. Por un lado, tenemos la ineludible obsolescencia, que es el lado negativo del progreso; y, por el otro, el abaratamiento. Por ejemplo, un ordenador puntero, comprado en 2005, sería ya normal en 2007 (adquirirlo nuevo valdría la mitad) y, en 2009, podríamos considerarlo prácticamente chatarra —ocurriendo lo mismo con los móviles o con las cámaras digitales—. De cualquier modo, todos ya estamos notando que, en los últimos cinco años, esto ya no es tan salvaje. Es curioso comprobar que gran parte de la llamada «obsolescencia programada» tiene ya poco que ver con una decisión maquiavélica, como sí lo fue, en cambio, la historia de las 1000 horas de las bombillas de los años 20 del siglo pasado. De hecho, es, más bien, una consecuencia directa del propio desarrollo tecnológico; y, por ese motivo, afrontarlo implica una estrategia mucho más sutil que señalar a alguien con el dedo. Y, lo más importante: por mucho que los microprocesadores se estanquen, teniendo en cuenta la mejora de las telecomunicaciones, así como el abaratamiento de la tecnología, poco a poco se potenciará que el procesamiento se haga cada vez más en diferido, es decir, lo que se conoce habitualmente como en «la nube». Esto no es ninguna sorpresa; pues si algo hemos visto en la segunda década del siglo XXI es cómo esta tendencia se ha acabado por imponer. Aún no ha entrado con todo su potencial en la tecnología de consumo, pero cosas como PlayStation Now, Google Stadia o GeForce Now son ya el principio de todo esto.

Cuando lleguemos a 2030, tanto los nuevos móviles como los ordenadores y las consolas no podrán ser más potentes; y, por lo tanto, la única manera de seguir con la rueda de ratón capitalista será ofrecer más potencia con servicios en la nube. Por mucho que mejoren las baterías, y aunque a uno no le importe poner varias tarjetas gráficas, hay un límite de tamaño, eficiencia y precio si no se pueden fabricar microchips más potentes. Sin embargo, con el procesamiento en la nube no hay problema, dado que Apple o Microsoft pueden tener granjas masivas de ordenadores que sirvan de potencia extra a través de Internet. El tema es que estos servicios no serán gratis; lo que nos lleva ahora a la cuestión de las subscripciones. Ya vamos viendo esta tendencia en muchos programas o videojuegos en la actualidad; dado que cada vez es más difícil vender una nueva versión que sea lo suficientemente innovadora como para que mereciera la pena pagar el precio completo. Por lo tanto, trasformar el negocio en uno donde se paga una subscripción mensual, para usar un producto en continuo desarrollo, ligándolo a una mayor cantidad de caramelitos en la nube —los casos de Photoshop CS6 o Microsoft Office 2016 son cristalinos, pues aún hoy son perfectamente válidos—, resulta una jugada inteligente, al menos económicamente hablando.

No es casualidad que, desde el iPhone X, los móviles de Apple sean cada vez menos caros y más cargados de servicios anexos. Aumentar su capacidad es bastante costoso; y es por eso que las cabezas pensantes de esta empresa prefieren que te acostumbres a pagar almacenamiento en la nube, que, además, te aderezan con una generosa prueba gratuita de un año a Apple TV+. Y la cosa no se queda ahí: hace nada presentaron también otro servicio de prensa de pago, junto con clases de gimnasia… Es evidente que van preparando el terreno para su negocio futuro, que ya no podrá ser vender móviles muy potentes. Es cuestión de tiempo que ofrezcan procesamiento en la nube, y me apuesto lo que queráis a que empezarán por el tratamiento fotográfico, con la magia de la ‘inteligencia artificial’. De esta manera, se conseguirá mantener el progreso, ya sin la susodicha ley de Moore, pero sí con su espíritu; con el agravante de ser paulatinamente menos dueños de los bienes que disfrutamos o que necesitamos para trabajar. Lo peor de esta situación es que nos hace más dependientes tanto de las empresas como de la coyuntura económica y social. Si poseemos poco más que un cascarón por ordenador, en el caso de que la empresa que nos ofrece las subscripciones quiebre, tenemos un problema; si pasamos apuros económicos, tendremos más facturas que no nos podremos quitar; y, en el peor de los casos, si vivimos una guerra o una crisis grave, con cortes de internet, etcétera, nos daremos cuenta de que nuestras herramientas no sirven de nada.

Pero hay un detalle que no hemos tenido en cuenta todavía. Hemos estado hablando todo el rato en términos cuantitativos, no cualitativos. Y lo cierto es que, cualitativamente, este progreso desenfrenado nos abre una oportunidad de interpretar la ley a la inversa; a saber: en vez de buscar lo último, podemos centrarnos en lo más eficiente y óptimo. ¿Verdaderamente necesitamos más de lo que nos ofrecía Photoshop CS6 para retocar una foto? Está claro que 0,3 megapíxeles eran pocos para una cámara digital, pero ya con los 10 de una Nikon D200 —de 2005— se hacen fotos realmente buenas. Un iPhone 3G hacía unas fotos cutres; sin embargo, el 5 nos deja unas fotos muy dignas. ¿Honestamente precisamos de una Nvidia 3070 para jugar, o nos podríamos conformar con una 1070 o incluso con una 570? Todos estamos de acuerdo en que un Blu-ray se ve mejor que un DVD, y que hay una distancia entre la definición de 480 y la de 1080…; pero ¿es indispensable el 4K?, ¿merece la pena el 8K, o podemos disfrutar igualmente sin verle los poros al actor de turno?

Deberíamos hacernos todas estas preguntas; porque, quizá, estamos comprando cosas que, en realidad, si lo pensamos un poco, no queremos. Y, en esta línea, los ordenadores que hoy son naves espaciales, en 2030 serán chatarra. Uno de los mejores ejemplos de esto es el caso de la Raspberry Pi 4, que, valiendo 90€, es prácticamente igual de potente que un ordenador Intel, de 900€, de hace 10 años; y con ella se puede hacer casi todo, excepto jugar —salvo que te guste emular clásicos anteriores al 2000— y trabajar con archivos muy pesados. En cuanto al cine, no llega al 4K, puede que a 1080 esté al límite, pero con 720 va muy bien, consumiendo 15W y siendo poco más grande que un paquete de tabaco. Ciertamente, todavía no es una opción totalmente equiparable a un sobremesa, y seguro que más de uno encuentra por 90€ un ordenador de segunda mano mejor; pero lo que sí que está claro es que, en no muchos años, será una verdadera oportunidad.

El tema es irse preparando para el futuro cercano y no perderse en el juego de espejos de las subscripciones. Tenemos que comprender la crisis del mundillo informático de la siguiente década e ir pensado que, quizá, deberíamos asumir que, para el común de las cosas del día a día, el final de la ley de Moore nos dejará unos ordenadores lo suficientemente potentes, además de muy baratos. Evidentemente, la masa seguirá las modas, pagará las subscripciones y se dejará encandilar con las novedades que estén por venir (como, por ejemplo, la realidad virtual). La obsolescencia propia de la evolución informática se mantendrá, pero sólo en los ámbitos más exigentes y para quienes quieran estar en la punta de lanza. Lo que está claro es que, para el que sepa valorar correctamente lo que quiere y aquello que necesita, tener un buen ordenador ya no será un problema.

Categorías

Opinión

Etiquetas

,

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s