domingo, 9 de septiembre de 2012

Anécdotas de un Estudiante de Ingeniería en Informática - Parte 3


Charles Babbache
He tratado de implementar una narrativa amena y agradable para mis lectores. Recibí algunas críticas que alegaban que tenía algunos desenfoques, así que haré el intento de mejorar mi focalización temática. En vista de que no soy perfecto, pido de antemano sus opiniones.
Estoy totalmente orgulloso de que algunos lectores criticaron mi modo de escribir, quiere decir que hay un verdadero interés de trasfondo. También estoy satisfecho, porque con tan sólo algunos artículos hemos logrado acarrear a un basto público: alrededor de 1000 visitas, con tan sólo un mes de arduo empeño literario.
Siendo este artículo un vástago más, me veré muy contento de que la progresión de visitas aumente con mayor vértigo; esto no podría suceder sin que mis nobles lectores no compartiesen el link del blog, y si nadie me recomienda a asiduos allegados de la informática. Insto a los demás a comentar, criticar, y expresar sus gustos y disgustos, pues que yo sea el "dueño de la página" no me hace dueño de los infinitos puntos de vista. Existen dos caminos: la espada, y la razón; yo elegí el segundo.
Máquina Diferencial
Retornando a nuestro tema, debería hablar de Charles Babbage, el padre de la informática. Un hombre precoz, con una mentalidad demasiado vertiginosa para su época. Por lo cual muchas de sus ideas quedaron guardadas en los claroscuros de alguna gaveta, o en algunos constructos que se plasmaron a medias, por falta de recursos... Me faltan más cosas por agregar, pero sé que esto comenzará a prolongarse demasiado, por lo que haremos una breve pausa para centrar las ideas.
No estando en desconocimiento de las lecturas monótonas, y completamente lineales de la mayoría de los libros, enciclopedias, o cursos de iniciación algorítmica o informática; me he tomado la atribución de transformar el orden de la narración que usualmente se utiliza para la historia. Para ello, sugiero al lector total aprensión, a fin de que se preste a mis recomendaciones.
Es con Charles Babbage, el padre de la informática, que se crean los esquemas y concepciones teóricas que incidirían en la transición de las computadoras meramente mecánicas, a las de cómputo electro-mecánico. Con Babbage friccionaron dos inventos técnicamente revolucionarios: La máquina de diferencias, y la máquina analítica.
Máquina Analítica
La primera máquina suya, la de diferencias, se basada en fundamentos mecánicos con ruedas dentadas; sus aplicaciones más importantes fueron la resolución de funciones, y la obtención de las tablas de dichas funciones. (Ejemplo, tablas de las funciones dadas a X elevada al cuadrado) Llegó a construirse, pero a mitad de camino fue abandonada por su propio creador, por falta de insumos materiales; y debido a que estaba trabajando otro proyecto, el cual le daría el honroso renombre de "padre de la informática".
La segunda máquina, la analítica (la cual le cedería la paternidad de las ciencias informáticas) fue diseñada en 1833, era idealmente capaz de realizar todas las operaciones matemáticas y con posibilidad  de ser programada por medio de tarjetas de cartón perforado (similares a las tarjetas del telar de Jacquard), siendo además capaz de almacenar en su interior cierta cantidad de información recuperable.
Babbage consiguió por primera vez en la historia los fundamentos teóricos de las computadoras actuales. Se ideó para la realización de tablas de logaritmos y funciones trigonométricas. Esta máquina no llegó a construirse, por las mismas adversidades que la anterior. Sin embargo, su diseño fue implementado años posteriores, lo cual le atribuye a Babbage su respectiva paternidad.
Una vez leído sobre Babbage, imaginemos a éste como el punto de partida para el progresivo crecimiento de las ciencias informáticas, hasta nuestros días. Consideremos a Babbage como el número cero, todos los inventores que lo anteceden son números negativos, y los que lo suceden son números positivos.
Haríamos, de este modo, un esquema indefinido de números enteros con sus respectivos valores de carga, como una analogía extraída del álgebra elemental.
Sería algo parecido a lo que hoy entendemos por antes, y después de Cristo. Babbage, para la informática, fue la escisión que dio cláusula a un antes, y a un después en las teorías manejadas por las Ciencias Informáticas.
Así como en los anteriores capítulos nos acercamos a este elemento neutro (Babbage), he decidido que no partiremos en cuenta sucesiva, sino que haremos un trayecto igualmente afín al elemento neutro: Invertiremos la historia, de modo que nos desplazaremos desde las más modernas arquitecturas informáticas de la actualidad, hasta retornar a nuestro Babbage.
Empecemos por uno de los paradigmas más futurísticos de la actualidad: la computación cuántica. La cual se basa en el uso de qúbits (bits cuánticos) dejando de lado los convencionales bits electrónicos.
Explicación: Las máquinas actuales funcionan a base de microtransistores, los cuales se han ido reduciendo conforme avanza la integración de procesos informáticos de mayor envergadura, y de mayor complejidad. Los microtransistores alcanzan tamaños tan minúsculos que de reducirlos a escalas nanométricas perderán su efectividad, ya que los electrones que transportan se dispersarán y se descarrilan en un efecto denominado "efecto túnel". He estado investigando arduamente, para entresacar lo más comprensible de esta colosal innovación, capaz de abrir a las Ciencias de la Computación a la era cuántica, en la que ya no se usarán electrones transportados por semiconductores, sino que entrarán en vigencia fotones de luz capaces de desplazar información a una de las velocidades más vertiginosas del universo: la velocidad de la luz.
David Di Vicenzo, quien pertenece al centro de investigaciones de la empresa IBM, explicó a la revista Scientific American que "la velocidad de la luz es la velocidad más alta de transmisión de datos conocida hasta ahora, y los chorros de electrones son por lo lejos muy inferior a ella"

Razonable afirmación, más aún  cuando se tiene en cuenta que los haces de luz son capaces de recorrer velocidades que llegan hasta los 300.000 Km/seg . Presumiblemente el achique de los micro-chips será tan notable, que dentro de veinte años quizá su aprovechamiento llegue a tasas más reducidas y su funcionamiento dependa alternativas más económicas. La luz será el nuevo medio informático de transmisión de datos. Es muy probable que las placas madres estén conformadas por miles de láseres microscópicos y fotorreceptores, que simultáneamente simularán el encendido y apagado del código binario ¿Y por qué no pensar en un nuevo código trinario de apagado-encendido e intermedio?  Las ventajas del uso de la luz, como canal de transmisión de qubits, no sólo se limitan en su asombrosa velocidad, sino que de aderezo al chocar entre sí son inmunes a los nefastos cortocircuitos, muy comunes entre los choques de electrones: "Dos alambres de cobre que se encuentren simultáneamente, son causas frecuentes de los tediosos apagones" Y ni qué decir de los incendios...


La "buena vecindad" y excelente convivencia de la luz, aseguraría la superioridad de los procesadores del futuro sobre los actuales. La información circulará bilateralmente por los mismos canales de procedencia... todo esto sin producir un choque entre partículas. Además de los chispazos, los ruidosos ventiladores y sus respectivas cámaras refrigerantes podrían ser historia, y ya se presentarían en el futuro. La luz parece ser mucho más prometedora.

Actualmente estamos en pañales, sin embargo, se ha demostrado las ingentes posibilidades, y las ventajas económicas para la producción de estas "joyas tecnológicas". Por el momento, la máquina de ensueño es aquella que funcione netamente a base de luz, pero los científicos e investigadores se han conformado con crear algunas piezas, que cumplan sólo algunas de aquellas características. Todo está impregnado en bocetos, y en los esfuerzos brillantes de la investigación científica.

Avanzaremos con las conocidas generaciones de computadoras, pero no sin antes advertirles que lo que encontrarán aquí  es totalmente diferente a las ambiguas afirmaciones que circulan por internet. Yo personalmente las he aprovechado con suma meticulosidad, y he encontrado un desbarajuste descomunal por doquier. Aclaro que en la redacción de este resumen he sudado sangre y quemado pestañas por depurar las botaradas que hube identificado en el trayecto de recopilación de datos. Muchas informaciones me fueron muy útiles, pero necesitaban un pulido urgente. He mencionado mis fuentes de internet, y con éstas está también lo recopilado de mi libro universitario, donde había una síntesis demasiado elemental, por lo que me vi obligado a prolongar los párrafos con informaciones adicionales. Hube interpolado los conceptos que hallé en cada una de mis fuentes y las concatené párrafo por párrafo, poniendo también mis retoques personales. Si hallan alguna contingencia, o algún error, no me nieguen sus críticas; porque aunque sean desagradables hay que escucharlas. Prefiero soportar críticas, antes que soportar mi supina ignorancia.

Generación de máquinas


Quinta generación: ¿desde 1981, hasta la fecha? Eso dicen...


La quinta generación es una leyenda que hay que suspender. No uso la palabra "mito" porque no es del todo descabellada. Aquí no hay licántropos, ni polvorines fantasiosos de dudosísima procedencia (duendes, hadas, ángeles, dioses, etc) y verdaderamente el concepto de quinta generación sí tiene fundamentos inteligibles, tanto para la lógica práctica, como para la científica. Mas el grave error de utilizar esta categoría como la "generación actual" resulta exagerado, y demasiado superlativo.

He encontrado varios conceptos, tantos en mi libro, como en Wikipedia, algunas páginas geeks, Monografías, y etc. Incluso encontré que habíamos llegado a la ¿¿¿Sexta Generación???
 Sin embargo, cualquier razonamiento juiciosamente crítico y analítico, es capaz de poner en tela de duda los hesitados tejemanejes de Japón, los E.E.UU y Europa que gestaron esta " aún legendaria" categoría.
El propósito medular que caracterizaría a esta generación de máquinas sería la "inteligencia artificial". Pero todo quedó en contingencia, y no se cumplieron con las expectativas esperadas.
La "quinta generación" se ha convertido en una legendaria proeza sin acabar e incompleta, por lo que a mi juicio debe quedar en total suspenso. Ella sólo representó un rediseño, y un mejoramiento sustancial de la cuarta, la cual a mi juicio sigue hoy en día vigente.

Veamos cuáles, según mi libro (Joyanes Aguilar-Fundamentos de Programación- 2003) son las características principales, y hagamos una calificación crítica de cada afirmación:

- Utilización de componentes de muy alta gama de integración (VLSI)- Verdadero
-Computadoras con Inteligencia Artificial- FALSO
-Utilización del lenguaje natural- Término Medio (Contingente)
-Interconexión entre todo tipo de computadoras, dispositivos y redes (redes integradas)- Verdadero
-Integración de datos, imágenes y voz- Verdadero
Etcétera.

La única manera de sustentar mi planteamiento es que hagamos una focalización en lo que se entiende por inteligencia artificial. Será necesario que se preparen para lo que viene, pues necesitaré usar conceptos escrupulosos y bastante debatidos.
Empecemos por la palabra "inteligencia". Según la RAE inteligencia es:


1.  Capacidad de entender o comprender.
2.  Capacidad de resolver problemas.
3.  Conocimiento, comprensión, acto de entender.
4.  Sentido en que se puede tomar una sentencia, un dicho o una expresión.
5.  Habilidad, destreza y experiencia.
6.  Trato y correspondencia secreta de dos o más personas o naciones entre sí.
7.  Sustancia puramente espiritual.




~ artificial.

1. f. Inform. Desarrollo y utilización de ordenadores con los que se intenta reproducir los procesos de la inteligencia humana.

El diccionario de la Real Academia suele ser esencial en los planteamientos, puesto que en un pajar de posibilidades, ella suele ser la "aguja delimitante" que establece la línea que hay que cruzar, y sus respectivos límites.
Mas, en vista de que la RAE aún no ha publicado las correcciones más recientes de su nueva edición, hay que aclarar que cuando hablamos de inteligencia artificial no sólo nos referimos a ordenadores que intentan reproducir procesos de la inteligencia humana, sino de cualquier ser vivo que actúe con autonomía, y con facultades mentales.
Sin embargo, si nos limitamos a la actual definición transcripta en este artículo, podremos alegar con certera cabalidad que ésta está hecha a la horma de los zapatos de Alan Turing. En esto me refiero al tan divulgado "Test de Turing"
El test de Turing (el cual debe su denominación al famoso matemático, informático y homosexual, Alan Turing) tiene como premisa un sencillo problema mental que trata de ilustrar los criterios del emérito inglés a través de imágenes figurativas. Básicamente consiste en que debe haber un juez quien debe permanecer aislado totalmente de sus dos interlocutores. Sus dos interlocutores estarán compuestos por una máquina, y un ser humano común y corriente. El desafío dependerá en cuán capaz o "inteligente" será la máquina para engañar las intuiciones del juez, y mimetizarse con su contrincante humano. Si la máquina tiene facultades positivamente equiparables a las humanas, será netamente capaz de sostener una conversación y pasar inadvertida. Esto sería suficiente para determinar que ella piensa con facultades similares a la de los humanos (es por ello que la definición de la RAE cupo tan bien aquí) y por lo tanto es inteligente.
Siendo Alan Turing un matemático sagaz y muy adelantado para su época, discrepo totalmente del problema que formuló. Aún me sigo cuestionando cuál es el fin de mantenerlo con vigencia, puesto que hay discrepancias sólidas y bastantes concretas contra lo anteriormente propuesto.
Ante la propuesta enunciada por Alan Turing, John Searl haría la reformulación de su test, y propondría un mundo paralelo muy desconcertante para quienes apoyan la idea.
Se paraleliza el test de Turing, con el problema mental de la "Sala China". En este problema desaparece el juez, y quienes pasan a protagonizar en lugar de la máquina somos nosotros.
John Searl propuso que la situación sería radicalmente diferente si éste yaciera encerrado dentro de la maquinaria, y con un diccionario chino que le dijera cada cosa que éste debe responder, ante cada pregunta que se le haga. Si recibiese una hoja del exterior, obviamente escrita en chino, éste no entendería absolutamente ninguno de los patrones que analiza, sin embargo contaría con una base de datos que lo dirige a hacer respuestas automáticas. Más claro que el agua está que esto no sería una interpretación, sino una flagrante simulación de lenguaje.
Se puede decir, por ello, que aún no hemos entrado en la quinta generación de máquinas, pues la inteligencia artificial es una meta que se encuentra en total proceso de perfeccionamiento y de construcción.
Muchos alegan que por medio de algoritmos se puede lograr resultados y avances destacables, sin embargo éstos no son más que simulacros, tal y como lo decía John Searl.
Lo cierto es que por medio de la reutilización de redes neuronales cultivadas en laboratorios, a partir del tejido nervioso de animales muertos en nombre de la tecnología, se han logrado resultados verdaderamente esperanzadores al introducirlos en arquitecturas artificiales.
Mediante complementos electrónicos que simulan ser receptores sensitivos se ha logrado interconectar tejidos neuronales (mantenidos con soluciones químicas y estímulos eléctricos) con arquitecturas artificiales: la máquina ya no actuaría en base de chorros de electrones entre sus transistores, sino que estaría ligada a sus receptores sensoriales ergonómicamente relacionados con las neuronas trasplantadas.
La tecnología del siglo XXI ha reproducido estructuras "autónomas", con sus propios sensores y sus propios sistemas nerviosos. ¿Cuáles suelen ser los resultados? Por lo general estos "bio-bots" aprenden por sí solos a relacionarse con el medio circundante, y no son dependientes de algoritmos de programación. Tampoco siguen patrones predefinidos por sus creadores, sino que actúan en base a lo acontecido en sus experiencias.
El verdadero nicho generacional más próximo al siglo XXI, podría ser a "simbiosis" entre seres vivos y máquinas. Incluso se ha pensado en hacer modificaciones a nuestros receptores sensoriales, como los ojos. Podrían implementarse ojos biónicos, para que el ser humano interprete, y perciba los espectros invisibles infrarrojo y ultravioleta. Podrían mejorarse los cocientes intelectuales mediante la dominación de la nanotecnología, para que legiones de nanobots recorran los torrentes sanguíneos, a fin de que repercutan controladamente en  las hormonas cerebrales, para propiciar la concentración y la creación acelerada de nuevos enlaces neuronales. También podrían usarse nanobots para subsanar deficiencias del Sistema Inmunológico, como el SIDA; o para la eliminación masiva de radicales libres de oxígeno (principal causa del envejecimiento). La simbiosis entre hombres y máquinas, podría ser el paso que anteceda a la inteligencia artificial, pues ello nos ayudaría a cerrar la brecha que tenemos con las máquinas. Quizá, cuando hayamos demostrado el éxito de las máquinas sobre nuestros cuerpos, podremos repetir los mismos hechos sobre sistemas electrónicos (o lo que sean) autónomos e independientes, con un funcionamiento orgánico, y autogestionable. Dudo de si conoceremos con cabalidad los verdaderos límites de las máquinas pensantes, pues si actualmente las súper-computadoras parecen imponerse a la sociedad, una máquina pensante de tamañas envergaduras tendría la potencialidad suficiente para apoderarse de todo el Sistema Solar, si así le place, pero... ¿Tendrá aquella máquina nuestra malicia, y nuestros primitivos aires de grandeza?
Nosotros, frente a una máquina inteligente y pensante, sólo equivaldríamos a berberechos. No seríamos más que meros chips aislados, frente a su inconmensurable inteligencia... mas todo está en tela de suspenso:

"La mente humana y las computadoras son sistemas de procesamiento funcionalmente equivalentes" Alan Turing-1937


Hoy en día contamos con Sistemas Expetos, algoritmos complejos y demás. Pero, personalmente, ante la IA por medio de "algoritmos de aprendizaje",  me veo obligado a asimilar una postura totalmente escéptica. Prefiero pensar que estamos en los anales de la historia de la inteligencia artificial (IA) y que quizá ésta no necesariamente tenga que ocupar la quinta generación, sino que es una candidata que compite contra los avances del cómputo cuántico, y otros que no expliqué, como la transmisión de datos por medio de nanotubos de carbono, y la implantación de un sistema trinario para los procesos de cómputo, en el que ya no serán sólo el encendido y apagado de corriente, sino que habrá una nueva variable: el término medio. Para quienes quieran investigar aún más sobre esta posible candidata, les recomiendo ver la siguiente disertación completísima, filmada por la Universidad Politécnica de Madrid ¡suscríbanse al canal! ¡Es fantástico!


http://www.youtube.com/watch?v=NPQqM0Rxdtk (No es el mismo vídeo que el anterior)