Comida Galgo

lunes, 21 de septiembre de 2009

Rest in PC

Te puede caer agua en el teclado y eso tiene solución, se puede parar el ventilador del procesador (ojo con este tema) y enterarte sólo cuando ya empieza a salir humo, te puede saltar la tecla H del teclado y darte en todo el ojo, te puedes quedar lisiado por un uso “incorrecto” de tu portátil pero todo esto, todo todito todo, tiene solución. Todo menos cambiar la resolución de pantalla.

Sí, efectivamente, la resolución de pantalla es lo que más dificultad me ha conllevado por el momento en todo el proyecto Blables. Debería decir, para salvar mi honor de programador expertisísimo, que es una mariconada y que se hace con la punta del ratón, y en parte es cierto, pero también es cierto que me ha consumido cierto tiempo capturar la resolución actual del usario, cambiar a 1024x768 (que es la que uso para el proyecto) y, al salir, devolver al pc la resolución original. Mejor no os lo explico porque hasta yo me he aburrido pero lo que sí que os voy a contar es la historia de la resolución gráfica.

Antes de nada, ¿qué es la resolución de pantalla? Pues no es más que el número de píxeles que puede mostrarse por cada pulgada del monitor. Antes de avanzar, habrá que definir qué es un píxel. No es más que un punto, la unidad mínima de información en un monitor, normalmente cuadrados aunque, dependiendo de la resolución de pantalla, puede ser rectangular. La palabra píxel es el acrónimo de PICture ELement: Pixel) Al igual que un metro podría ser nuestra unidad mínima de medida y el kilómetro es mil veces el metro, el megapíxel es un millón de veces el píxel y , de ahí, que cuantos más megapíxeles tenga tu cámara fotográfica, mejor resolución (o calidad) tendrán tus fotos.

Volviendo a la resolución de pantalla, encontramos multitud de acrónimos a los que tan aficionados son los americanos: CGA, EGA, VGA, sVGA, XGA, WXGA, etc… Por poner un ejemplo, el modo CGA, inventado por IBM en 1981, era capaz de mostrar 16 colores a 640x200 y significaba Color Graphics Adapter. La hiperpopular sVGA (Super Video Graphics Adapter) surgió de un cisma tecnológico creado por IBM en un afán de controlar el mercado y… fracasó. La sVGA ofrecía en su primera versión una resolución de 800x600. Los que usen todavía esta resolución deberán saber que dicha tecnología ya estaba presente en 1987, casi la prehistoria informáticamente hablando.

Una curiosidad fue el Apple Lisa de 1978, un proyecto pensado para revolucionar el entorno informático con GUI (interfaz gráfica de usuario) Esto sería toda una revolución desde el punto de vista visual ya que pretendían inventar lo que conocemos mayoritariamente como Windows en el año 1978! Pero la curiosidad no es esta, lo divertido del caso es el nombre; Lisa es el acrónimo de Let’s Invent Some Acronym (vamos a inventar algún acrónimo) Los informáticos son raros pero nadie puede decir que no sean divertidos.

¡Y creo que son muy divertidos en realidad! Recuerdo un programador que, hace pocos años, recibió el encargo de un importante sello musical para hacer un sudoku que quería distribuir y forrarse, supongo, con el juego de moda. El programador, un cachondo redomado que se transforma en un niño de 10 años cuando coge un teclado, programó el juego para que, con una resolución de pantalla concreta, un idioma concreto (inglés) y escribiendo tres números 5 en cada una de las esquinas (eso no tendría sentido en un sudoku), al escribir el último cinco en la última esquina te salía un mensaje en la pantalla por una pequeña fracción de segundo “POR EL CULO TE LA HINCO!”. Me reí mucho, creo que ese programador tenía la ínfima esperanza que alguien, algún día, viese ese mensaje oculto (o huevo de pascua) en su modesto programa.

Pero para divertido y oculto a la vez, es la imaginación de los diseñadores de chips. No averiguaríais nunca lo que estos colgados de la ingeniería más puntera de la nanocompresión de chips son capaces de hacer. ¿Lo imaginas? Pues nada más y nada menos que hacer dibujitos con sus sofisticadas máquinas a escala muy muy pequeñas. Mira y ríe:

A este se le conoce como El Velero, de 1970, encontrado en un chip del fabricante Texas Instruments. Es el ejemplo más antiguo encontrado.



Esta imagen de Wally fue el primero encontrado en Silicon Zoo.



Algunos dejan mensajes entre enigmáticos y divertidos. Sin duda un ejercicio de paciencia infinito! Se puede leer “Keep away from fire” (aléjese del fuego), “Not for resale” (no apto para la reventa) o “No purchase necessary” (compra no necesaria).



Este es un video que encontré en youtube en relación a este tipo de arte que me fascina por su dificultad y por el extraordinario sentido del humor que hay que tener para llevarlo a cabo:



A pesar de mi aburrido fin de semana programando un cambio de resolución, la informática está hecha para gente divertida, ingeniosa, con ganas de pasarlo bien. ¿Cómo explicaríamos la genial frase de Enzo Torresi: “La razón por la que Dios pudo crear el universo en seis días es que no tuvo que preocuparse de hacerlo compatible con la versión anterior”? Genial este Enzo.

Otro cachondo muy conocido dentro del mundo de la tecnología fue Gordon Moore. Este pájaro soltó en 1965 que los procesadores duplicarían su potencia y capacidad cada 18 meses, ¡y se ha cumplido desde entonces! Ahora es conocida de manera más seria (y usada en powerpoints para altos ejecutivos) como la Ley de Moore. Lo más asombroso de la predicción es que el chip de silicio, base de los microprocesadores, fue inventado en 1958, un poco después de que el presidente de IBM, Thomas Watson, dijese que, dada la complejidad y coste de un ordenador “no hay mercado en el mundo para unos cinco ordenadores como mucho”.

Esto es lo encantador del ser humano, su capacidad de ingenio y las ganas de divertirse aun siendo un maldito ingeniero de circuitería integrada (¿puede haber en el mundo un trabajo más aburrido?) El cerebro humano es irrepetible aunque alguna vez he escuchado que “los ordenadores llegarán a dominar el mundo” o cosas como que “la inteligencia artificial está en contra de Dios” y sandeces por el estilo.
Pequeño saltamontes, una neurona tarda en excitarse del orden de un milisegundo, mientras que los circuitos electrónicos más rápidos tardan un tiempo de un orden cercano al picosegundo. Esto implica que los ordenadores procesan la información más rápidamente de modo general. Determinadas tareas son, hoy día, imposibles de efectuar por los ordenadores o, al menos, estos son más lentos que el hombre (procesamiento de información visual, aprendizaje...). La razón de la velocidad de nuestro cerebro en esas acciones no estriba en la velocidad de las neuronas sino en la complejidad de su diseño, muy superior al ordenador más potente que se pueda fabricar hoy día.

Esto es así hasta que yo termine el sistema neuronal del Blable! Manel Dixit.

No hay comentarios:

Publicar un comentario

El ordenador que se negaba a morir

Hoy se cumplen cuatro años exactos que encendí por primera vez un pequeño ordenador que tenía olvidado por casa, que le instalé el cliente ...