Archivo de la etiqueta: Inteligencia Artificial

INTELIGENCIA ARTIFICIAL Y CUESTIONES MORALES. EL CONCEPTO CYBORG

Giancarlo Elia Valori*

Imagen de Pete Linforth en Pixabay 

San Francisco, California, 27 de marzo de 2017. El empresario Elon Musk, uno de los cerebros detrás de proyectos como Tesla y SpaceX, anunció su próxima empresa, a saber, Neuralink. La compañía tiene como objetivo fusionar a los humanos con la electrónica, creando lo que Musk llama el encaje neuronal. Es un dispositivo que inyectado en la vena yugular llegaría al cerebro y luego se desplegaría en una red de conexiones eléctricas conectadas directamente a las neuronas humanas. La idea es desarrollar interfaces cerebro-computadora mejoradas para aumentar la medida en que el cerebro biológico puede interactuar y comunicarse con computadoras externas. El encaje neuronal bajará al nivel de las neuronas cerebrales: será una malla que podrá conectarse directamente a la materia cerebral y luego conectarse con una computadora. Ese ser humano será un cyborg. El cyborg es una mezcla biológica de hombre y máquina.

El profesor Kaku se pregunta: «¿Qué nos impulsa a fusionarnos con las computadoras en lugar de competir con ellas? ¿Un complejo de inferioridad? Nada puede evitar que las máquinas se vuelvan cada vez más inteligentes hasta que sean capaces de programar y fabricar el robot ellos mismos. Esta es la razón por la que los humanos tratan de aprovechar las habilidades sobrehumanas».

Como todos sabemos, aunque Elon Musk ha dejado claro cuáles son los peligros de crear una inteligencia artificial que se salga de control, también está convencido de que si el proyecto se desarrolla adecuadamente, los humanos disfrutarán del poder de una tecnología informática avanzada, dando así un paso más allá de la biología actual. Sin embargo, mientras la tecnología Neuralink aún se encuentra en una etapa embrionaria, son muchas las personas que insisten en que fusionar hombre y máquina no es algo tan remoto y están convencidas de que de una forma u otra esto viene sucediendo desde hace décadas.

En 2002, el profesor Kevin Warwick, ingeniero y profesor de cibernética en la Universidad de Coventry en el Reino Unido, demostró que un implante neuronal no solo podía ser controlado por una prótesis, sino también por otro ser humano.

En ese mismo año, él y su esposa tenían un conjunto de electrodos, 100 cada uno para ser precisos, implantados en su sistema nervioso para que a su vez pudiera conectarse a una computadora. Luego, todo lo que hicieron fue conectar los dos sistemas nerviosos para que pudieran comunicarse entre sí. Por lo tanto, cada vez que la esposa cerraba la mano, el cerebro del marido siempre recibía un impulso. Si su esposa abriera y cerrara su mano tres veces seguidas, él recibiría tres impulsos. De esta manera pudieron conectar dos sistemas nerviosos. Quién sabe lo que podría pasar en el futuro.

En lugar de hablar y enviar mensajes o correos electrónicos, ¿pronto podremos comunicarnos entre nosotros? Es solo cuestión de tiempo antes de que la tecnología cibernética nos ofrezca una gama infinita de opciones posibles. Esto nos permitiría ordenar algo con solo pensar; escuchar música directamente en nuestro cerebro o buscar en Internet con solo pensar en lo que nos interesa encontrar.

El profesor Kaku afirma: «Nos dirigimos a una nueva forma de inmortalidad, es decir, la de la tecnología de la información. Al digitalizar toda la información conocida en nuestra conciencia, entonces probablemente el alma se informatiza. En esa coyuntura, el alma y la información podrían separarse del cuerpo y cuando el cuerpo muera, la esencia, el alma y la memoria vivirían indefinidamente».

En ese caso, los humanos estarán a punto de reemplazar cuerpo y mente, pieza por pieza, mientras se preparan para transformarse en cyborgs.

El matrimonio entre el hombre y la máquina se ha convertido en algo que está sucediendo cada vez más en el área de los ordenadores personales, tabletas, teléfonos móviles e incluso implantes que proporcionan una cantidad extraordinariamente grande de datos que van desde los signos vitales de una persona hasta la geolocalización, desde la dieta hasta el comportamiento recreativo, etc. Por lo tanto, estamos destinados a fusionarnos con las máquinas que estamos creando. Estas tecnologías nos ayudarán a dar los saltos hacia adelante que pueden llevarnos más allá de nuestro planeta y la luna, como veremos más claramente más adelante. Este es el futuro que nos espera: un futuro en el que la evolución ya no será por selección natural como sostiene la teoría de Darwin, sino por gestión humana. Esto sucederá en las próximas décadas, en el futuro a corto plazo.

En Icarus (vol. 224, nº 1, mayo de 2013) —una revista dedicada al campo de las ciencias planetarias, y publicada bajo los auspicios de la Division for Planetary Sciences of the American Astronomical Society— el matemático Vladimir Ščerbak y el astrobiólogo Maksim A Makukov, ambos de Kazajstán, publicaron un estudio realizado sobre el genoma humano: The ‘Wow! signal’ of the terrestrial genetic code.

Las conclusiones del estudio son impactantes. Supuestamente hay un código oculto en nuestro ADN que contiene patrones matemáticos precisos y un lenguaje simbólico desconocido. El examen del genoma humano revela la presencia de una especie de huella no terrestre en nuestro código genético, que funcionaría como un código matemático. La probabilidad de que esta secuencia se repita nueve veces en la aleatoriedad de nuestro código genético, como «asume» la teoría de Darwin, es de una en diez mil millones. El ADN ciertamente tiene orígenes que no son aleatorios y no tienen nada que ver con las teorías de Darwin del siglo XIX, cansadamente repetidas hasta el día de hoy.

Nuestros genes han sido mutados artificialmente y si la teoría de los dos eruditos kazajos fuera cierta, el hecho de que el hombre esté inclinado a convertirse en un cyborg sería perfectamente plausible ya que tiene una inteligencia no aleatoria que puede unirse a la inteligencia artificial que, por el momento, es solo la herencia de computadoras sofisticadas o los primeros intentos de robots humanoides. Aquí está también la respuesta a la pregunta del profesor Kaku: por esta razón, desde tiempos inmemoriales, los humanos han tenido una inclinación por crear sus propias variantes y mejorarlas con cibernética (programación de robots con inteligencia artificial), además de estar ansiosos por fusionarse con la propia IA. Muchos estudiosos y expertos están de acuerdo en que, en vista de sobrevivir, evolucionar y viajar a través del cosmos, cualquier especie inteligente debe superar la etapa biológica. Esto se debe a que al abandonar la atmósfera de la tierra y tratar de ir más lejos, mucho más lejos, los humanos deben ser capaces de adaptarse a diferentes entornos, a lugares donde la atmósfera es venenosa, o donde la atracción gravitacional es mucho más fuerte o mucho más débil que en nuestro planeta.

La mejor respuesta a la pregunta del profesor Kaku es que los humanos se ven de alguna manera obligados a crear robots cada vez más parecidos a sí mismos, no para satisfacer su deseo de superarse unos a otros creando criaturas inteligentes a su imagen, sino para cumplir su destino fuera de la tierra. Esto se demuestra por más pistas y señales provenientes de un análisis de las últimas tecnologías desarrolladas por el hombre en anticipación de la próxima fase de su evolución en el espacio exterior.

Science Robotics —la prestigiosa revista científica publicada por el American Association for the Advancement of Science — publicó el artículo Robotic Space Exploration Agents (vol. 2, nº 7, junio de 2017), escrito por Steven Chien y Kiri L. Wagstaff, del Laboratorio de Propulsión a Chorro de la NASA en el Instituto de Tecnología de California. Según su teoría, los astronautas que viajan por el espacio muy pronto serán reemplazados por robots, por ejemplo, seres humanos sintéticos capaces de tomar decisiones autónomas utilizando inteligencia artificial. El espacio es un ambiente muy hostil para los humanos. Hay una fuerte radiactividad y moverse en el vacío no es tan fácil, mientras que las máquinas pueden moverse ágilmente en el espacio. Lo importante es que los circuitos electrónicos estén protegidos de daños. Por lo tanto, es más fácil y más barato para una máquina explorar otro planeta u otro sistema solar. Se cree que la exploración espacial estará más basada en máquinas que en el hombre. No será el hombre quien explore el espacio a gran escala: enviaremos máquinas con inteligencia artificial que no tendrán problemas de aceleración ya que podrán viajar fuera del sistema solar utilizando la aceleración de la gravedad.

Sería muy útil contar con un sistema inteligente capaz de comunicarse, por ejemplo, con Alfa Centauri —nuestro sistema estelar más cercano— ya que tardaría 8 años y 133 días en enviar una señal a la Tierra y recibir una respuesta. De ahí que ¿por qué no utilizar la inteligencia artificial para tomar decisiones y trabajar? Las misiones a Marte y Alpha Centauri guiadas por inteligencia artificial podrían convertirse en una realidad. La NASA ha estado probando esta tecnología ya en 1998 con la sonda Deep Space 1. Fue enviado al cinturón de asteroides ubicado entre Marte y Júpiter. Usando un sistema llamado AutoNav, la sonda tomó fotos de asteroides siguiendo su itinerario sin ningún apoyo humano. El rover de Marte es básicamente un robot terrestre autónomo que viaja alrededor de Marte recolectando muestras y transmitiendo información. Es un sistema autónomo recién desplegado, lo que significa que, tan pronto como la inteligencia artificial sea lo suficientemente confiable como para ser desplegada a bordo de una nave espacial, habrá una nave espacial robótica que pueda llegar a Marte. Una vez que enviemos naves espaciales robóticas programadas con inteligencia artificial renunciaremos a toda posibilidad de control porque serán nuestros «enviados» los que tomarán decisiones sobre el terreno. (4. continuará)

 

* Copresidente del Consejo Asesor Honoris Causa. El Profesor Giancarlo Elia Valori es un eminente economista y empresario italiano. Posee prestigiosas distinciones académicas y órdenes nacionales. Ha dado conferencias sobre asuntos internacionales y economía en las principales universidades del mundo, como la Universidad de Pekín, la Universidad Hebrea de Jerusalén y la Universidad Yeshiva de Nueva York. Actualmente preside el «International World Group», es también presidente honorario de Huawei Italia, asesor económico del gigante chino HNA Group y miembro de la Junta de Ayan-Holding. En 1992 fue nombrado Oficial de la Legión de Honor de la República Francesa, con esta motivación: “Un hombre que puede ver a través de las fronteras para entender el mundo” y en 2002 recibió el título de “Honorable” de la Academia de Ciencias del Instituto de Francia.

 

Traducido al español por el Equipo de la SAEEG con expresa autorización del autor. Prohibida su reproducción.

©2022-saeeg®

 

INTELIGENCIA ARTIFICIAL Y CUESTIONES MORALES. IA ENTRE LA GUERRA Y LA AUTOCONCIENCIA

Giancarlo Elia Valori*

Imagen de Gerd Altmann en Pixabay 

A principios de 2018 el número de teléfonos móviles en uso superó al de los seres humanos en el planeta, alcanzando la cifra de 8 mil millones. En teoría, cada uno de estos dispositivos está conectado a dos mil millones de computadoras, que también están conectadas en red. Dada la increíble cantidad de datos involucrados en este tipo de uso, dado que la red informática está en contacto constante y en constante crecimiento, ¿es posible que la humanidad ya haya creado un cerebro masivo? ¿Una inteligencia artificial que asume una identidad propia?

El sector de la robótica está en constante evolución y ha seguido avanzando, por lo que está claro que tarde o temprano tendremos que pasar de la inteligencia artificial a la superinteligencia, es decir, a un ser de este planeta más inteligente que nosotros que pronto no lo será aún más. No será agradable cuando la inteligencia artificial con sus conocimientos y capacidades intelectuales arrincone al ser humano, superando a las personas en carne propia en cualquier área del conocimiento. Será un momento de actualidad y cambiará radicalmente la historia mundial: ya que ahora nuestra existencia se justifica por el hecho de que estamos en la cima de la cadena alimentaria, pero cuando una entidad que no necesita alimentarse de pasta y carne se autocreará, ¿qué existiríamos para hacer si esa entidad solo necesita energía solar para perpetuarse indefinidamente?

Sí, tarde o temprano seremos sustituidos por la inteligencia artificial, por este motivo debemos empezar a prepararnos psicológicamente. Portland, Oregón, 7 de abril de 2016: la Agencia de Proyectos de Investigación Avanzada de los Estados Unidos para Proyectos avanzados de Investigación de Defensa, más conocida como DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa), ha lanzado el prototipo del buque antisubmarino pilotado a distancia Seahunter que marca el comienzo de una nueva era. A diferencia de los drones Predator y de la Fuerza Aérea, este barco no necesita un operador remoto y está hecho para poder navegar solo evitando cualquier tipo de obstáculo en el mar; tiene suficiente combustible para soportar hasta tres meses en el mar y es muy silencioso. También transmite información encriptada a los servicios secretos de la Defensa. Cuando el Departamento de Defensa del Estado dice que un submarino pilotado a distancia no se lanzaría sin control remoto, es cierto. Pero hay más, a saber, que Rusia ha desarrollado un submarino pilotado a distancia con un arma nuclear. Esto significa que antes de que la defensa estadounidense sea capaz de responder a un submarino pilotado a distancia con un arma nuclear a bordo, pasarán entre 5 y 15 años.

Siempre se ha dicho que el dron de guerra reemplaza al soldado en carne y hueso, que se convierte en un operador remoto de “playstation”. De ahí la idea del dron como sustituto del ejército humano, al que se le garantizaría una seguridad total, para que evite peligros innecesarios. Pero había olvidado que el control remoto puede ser interceptado por el enemigo y cambiar de objetivo golpeando a su propio ejército. En este punto, sin embargo, los drones deben ser completamente autónomos. En un dron de este tipo sería una máquina de la muerte que pasaría ejércitos enteros, por lo que debemos tener cuidado y evitar su proliferación en los campos de batalla; cualquier tipo de accidente, un incendio o incluso una pequeña falla desencadenaría un mecanismo de “locura” que haría que el automóvil matara a cualquiera. Desarrollar robots asesinos es posible. La tecnología de reconocimiento facial ha hecho grandes avances, y la inteligencia artificial puede reconocer rostros e identificar objetivos. De hecho, los drones ya se utilizan para detectar y golpear a individuos, en función de la apariencia de la cara: matan y hieren.

La aplicación de la inteligencia artificial a la tecnología militar cambiará la guerra para siempre; es posible que las máquinas autónomas del ejército puedan tomar decisiones equivocadas, cosechando así decenas de miles de víctimas entre amigos, enemigos y civiles desarmados. ¿Qué pasa si incluso llegan a ignorar las instrucciones recibidas? Si es así, si las máquinas de matar autónomas están diseñadas independientemente e independientemente de los comandos humanos, ¿podríamos enfrentarnos a un destino violento de extinción de la humanidad?

Mientras que muchos expertos y estudiosos están de acuerdo en que los humanos serán los arquitectos de su propia ruina violenta primero y la destrucción después, otros creen que el progreso de la inteligencia artificial puede ser la clave para la salvación de la humanidad.

Los Ángeles, mayo de 2018: en la Universidad de California, la profesora Verónica Santos está trabajando en el desarrollo de un proyecto para la creación de robots cada vez más similares al ser humano capaces de percibir el contacto físico y reaccionar ante él, y también está experimentando con diferentes modos de sensibilidad táctil del robot. Combinando todo esto con la inteligencia artificial, algún día puede haber un robot humanoide capaz de explorar el espacio hasta Marte: los robots humanoides son cada vez más una realidad que va desde el campo de las neuroprótesis hasta las máquinas para la colonización de cuerpos celestes.

Aunque el uso de robots humanoides es un tema bastante controvertido, este sector tiene el mérito de tener grandes perspectivas especialmente para aquellos que pretenden invertir en el campo: financiar proyectos de desarrollo podría resultar útil en la creación de seres humanos artificiales prácticamente imposibles de distinguir de los seres humanos en carne y hueso.

Pero estos humanoides probablemente podrían manifestar deseos y sentir dolor, así como mostrar una amplia gama de sentimientos y emociones. En realidad se sabe que no sabemos qué es realmente una emoción, así que ¿seríamos realmente capaces de crear una artificial, o cometeremos errores fatales durante el desarrollo del software? Si un robot será capaz de distinguir entre lo bueno y lo malo y conocer el sufrimiento. ¿Será este el primer paso hacia la posibilidad de desarrollar sentimientos y una conciencia?

Reflejar. Aunque las computadoras superan a los humanos en el procesamiento de datos, palidecen ante la complejidad y sofisticación del sistema nervioso central. En abril de 2013, la compañía tecnológica japonesa Fujitsu intentó simular la red de neuronas en el cerebro utilizando uno de los superordenadores más potentes del planeta; aunque equipado con 82 mil procesadores entre los más rápidos del mundo, tardó más de 40 minutos en simular solo un segundo del 1% de la actividad cerebral humana (Tim Hornyak, supercomputadora Fujitsu simula 1 segundo de actividad cerebral en https://www.cnet.com/culture/fujitsu-supercomputer-simulates-1-second-of-brain-activity/)

El astrofísico de origen japonés Michio Kaku, graduado summa laude de la Universidad de Harvard, dice: “Hace cincuenta años cometimos un gran error al pensar que el cerebro era una computadora digital”.

“¡No es así! El cerebro es una máquina capaz de aprender, que se regenera al final de su tarea. Los niños tienen la capacidad de aprender de sus errores: cuando se encuentran con algo nuevo aprenden a entender cómo funciona interactuando con el mundo. Eso es exactamente lo que necesitamos, y para hacer eso necesitamos una computadora que esté a la altura: una computadora cuántica”.

A diferencia de las computadoras actuales que dependen de bits, una serie binaria de 0 y 1 para procesar datos, las computadoras cuánticas usan bits cuánticos, o qubits (bits cuánticos), que pueden usar 0 y 1 al mismo tiempo. Esto les permite realizar millones de cálculos simultáneamente como lo hace el cerebro humano.

Kaku: “Los robots son máquinas y como tales no piensan y no tienen una conciencia de silicio, no son conscientes de lo que son y del entorno que los rodea. Pero tenemos que reconocer que es solo cuestión de tiempo antes de que puedan tomar conciencia”.

¿Es realmente posible que las máquinas se conviertan en entidades sensibles plenamente conscientes de sí mismas y de su entorno? Kaku: “Podemos imaginar un tiempo futuro en el que los robots serán tan inteligentes como un ratón, y después del ratón como un conejo, y luego un gato, un perro, hasta que se vuelvan tan astutos como un mono. Los robots no saben que son máquinas; Y creo que tal vez a finales de este siglo los robots comiencen a darse cuenta de que son diferentes, que son algo más que su maestro”.

 

* Copresidente del Consejo Asesor Honoris Causa. El Profesor Giancarlo Elia Valori es un eminente economista y empresario italiano. Posee prestigiosas distinciones académicas y órdenes nacionales. Ha dado conferencias sobre asuntos internacionales y economía en las principales universidades del mundo, como la Universidad de Pekín, la Universidad Hebrea de Jerusalén y la Universidad Yeshiva de Nueva York. Actualmente preside el «International World Group», es también presidente honorario de Huawei Italia, asesor económico del gigante chino HNA Group y miembro de la Junta de Ayan-Holding. En 1992 fue nombrado Oficial de la Legión de Honor de la República Francesa, con esta motivación: “Un hombre que puede ver a través de las fronteras para entender el mundo” y en 2002 recibió el título de “Honorable” de la Academia de Ciencias del Instituto de Francia.

 

Traducido al español por el Equipo de la SAEEG con expresa autorización del autor. Prohibida su reproducción.

©2022-saeeg®

 

 

INTELIGENCIA ARTIFICIAL Y CUESTIONES MORALES. MITOS Y RELIGIONES: PELIGROS Y REALIDADES

Giancarlo Elia Valori*

Imagen de DrSJS en Pixabay 

¿Está la humanidad realmente al borde de un futuro emocionante, pero potencialmente aterrador?

Algunos académicos piensan que este es el caso, dicen, pero basan su predicción no en lo que está sucediendo actualmente en las universidades y laboratorios de robótica de todo el mundo, sino en su creencia de que ya se ha producido una revolución robótica.

Las religiones y los mitos antiguos hablaban de muchas entidades construidas artificialmente. A menudo se los representa como instrumentos de protección, pero a veces sucede que se rebelan contra quienes los crearon con consecuencias desastrosas.

El rabino estadounidense Ariel Bar Tzadok, fundador de la Escuela de la Torá Kosher, declaró: «Hay una leyenda que ha existido desde el principio de los tiempos. Me refiero al Golem. Es una fuente de vida artificial a partir de material inanimado que luego cobra vida. El Golem fue creado por medio de una tecnología antigua conocida por los magos del Faraón, Moisés, los rabinos del Talmud y los rabinos de la Cábala en Europa».

Todos dieron vida al Golem a través de la magia escribiendo el nombre de Dios en la frente de la criatura. Así el Golem cobró vida y fue un valiente guerrero y defensor del Pueblo. El Golem fue útil hasta que comenzó a perder el control y se volvió loco. En ese momento, quienes lo habían traído a la vida se vieron obligados a recurrir nuevamente a la magia para hacerlo inofensivo. Esta es una historia muy interesante que nos hace pensar en robots e inteligencia artificial.

Otro ejemplo aún más aleccionador proviene de las antiguas leyendas griegas sobre el dios Hefesto: conocido como el herrero de los dioses, se dice que forjó un autómata gigante, un robot llamado Talus, con la tarea de proteger la isla de Creta. Hefesto también creó sirvientes artificiales para ayudarlo en su forja. Sin embargo, su creación más importante fue una mujer que, según la leyenda, cambió el destino de la humanidad para siempre, a saber, Pandora. Fue forjada en arcilla por Hefesto quien, con la ayuda de la diosa Atenea, logró animarla a través del aliento de vida, convirtiéndola así en un ser vivo por derecho propio. Zeus, sin embargo, se sintió perturbado por ese ser creado artificialmente y esa fue la razón por la que decidió regalarle una ánfora. Tan pronto como Pandora la abrió, todos los males del mundo se fueron volando.

El mito de Pandora cobra cada vez más importancia entre los diseñadores de inteligencia artificial. Algunos temen que una entidad dotada de inteligencia artificial se haga cargo y se convierta en una amenaza. Este miedo también lo comparten Elon Musk y Stephen Hawking.

Aunque el concepto de una máquina dotada de conciencia humana pueda hacernos estremecer, en muchas religiones orientales el juicio cambia radicalmente. En el chamanismo coreano, una antigua religión que todavía practican muchas personas en la actualidad, los objetos pueden ser poseídos por espíritus sagrados imbuidos de una energía que los humanos no tienen. De forma similar, quienes practican la religión japonesa conocida como sintoísmo creen que espíritus de otro mundo llamados Kami (objetos de culto) prácticamente pueden vivir dentro de cualquier objeto y darle vida.

La sacerdotisa sintoísta Izumi Hasegawa sostuvo: «Los japoneses antiguos, así como los modernos, creen que hay un espíritu en todo: incluso un teléfono inteligente o un iPhone tiene una fuerza vital como una computadora. Creemos en la inteligencia artificial de una máquina. Nos sentimos así y nos gusta. En este aspecto somos profundamente diferentes de los occidentales para quienes una máquina es una máquina».

Heather Roff, de la Universidad de Cambridge, afirmó: «La frase – Oye, Siri, ¿qué tiempo hará hoy? – es un ejemplo de inteligencia artificial, es decir, un algoritmo que procesa el lenguaje natural, lo convierte en un código informático que busca en la web y proporciona los datos. Ha sido complicado poder procesar el lenguaje humano. De hecho, este objetivo se ha logrado hace solo unos años, pero con muy buenos resultados que también se han alcanzado en el campo del reconocimiento facial y de voz. codificación de señales».

Si creamos un ente que se comporte como nosotros y que tenga sus propias capacidades perceptivas y conocimiento personal del mundo, creemos que debe ser considerado un ente inteligente, consciente y responsable.

De alguna manera, nuestra sociedad está en proceso de transformación: las computadoras acompañan nuestra vida diaria y la tecnología está destinada a expandirse cada vez más. La inteligencia artificial que forma parte de ella está configurada para transformar el tejido mismo de nuestra sociedad. Es cierto que deberíamos hacer una pausa para reflexionar sobre el tipo de inteligencia que estamos creando. Lo que sí sabemos es que estamos empezando a ceder el control de algunas cosas a las máquinas sin haber entendido cuáles son las consecuencias. Al diseñar máquinas cada vez más inteligentes, los humanos podrían crear una nueva forma de vida que, con el tiempo, evolucionará mucho más allá del propósito que ahora nos es útil y eventualmente nos reemplazará.

Universidad de Princeton, 1950. El científico informático pionero Alan Turing estaba desarrollando una prueba diseñada para distinguir al hombre de la máquina. La prueba consistía en colocar a dos sujetos opuestos frente a una pantalla sin posibilidad de verse. Como los dos jugadores no podían verse, no sabían si eran seres humanos o no. Si el jugador artificial lograba imitar una conversación el tiempo suficiente para que el oponente creyera que estaba interactuando con un humano de carne y hueso, ese jugador había pasado la prueba.

Cuando Alan Turing propuso por primera vez la prueba en 1950, los peces gordos esnobs habituales, que nunca fallan, inicialmente la consideraron algo a medio camino entre una broma nerd y una especulación filosófica. La idea de que una máquina pudiera ser confundida con un ser humano era impensable. Pero en junio de 2014, la ciencia ficción futurista se convirtió en un hecho científico cuando un programa de computadora, Chatbot, pasó la prueba de Turing.

Diseñado para parecerse a un niño ucraniano de 13 años en todos los sentidos, el chatterbot («charlatán») llamado Eugene Goostman logró convencer a muchos jueces de que era un adolescente de la vida real. La máquina que pasó la prueba de Turing en 2014 se había puesto en los zapatos de un niño ucraniano de 13 años. Probablemente el hecho de expresarse en un idioma que no era el suyo le permitió salirse con la suya a pesar de sus errores. En cualquier caso, las máquinas imitan cada vez mejor a los humanos y es complicado detectar las diferencias.

Otro increíble avance en inteligencia artificial ocurrió menos de dos años después, cuando un programa conocido como AlphaGo derrotó al campeón mundial de un antiguo juego de mesa chino llamado Go. Go es un juego de mesa de estrategia abstracta popular en Asia y aparentemente mucho más complicado que el ajedrez. Muchos expertos en inteligencia artificial estaban convencidos de que desarrollar un sistema capaz de vencer a un ser humano en ese juego llevaría otros 30-50 años, ya que requería un altísimo nivel de intuición y creatividad. La versión posterior del programa, llamada AlphaGo Zero, fue diseñada para jugar sin la ayuda de información sobre otros juegos humanos, ni interactuando con jugadores de carne y hueso. El programa aprendió jugando contra sí mismo y, en tres días, pudo derrotar a su predecesor AlphaGo 100-0.

Los éxitos de AlphaGo Zero y el arduo trabajo de los investigadores sobre el tema de la superinteligencia también han convencido a los ya mencionados Stephen Hawking y Elon Musk para advertir al mundo del peligro de que una vez que la Inteligencia Artificial se vuelva más inteligente que los humanos, será imposible controlarla.

La humanidad avanza rápidamente hacia un mundo donde las computadoras funcionan más o menos como el cerebro humano, y donde los robots pueden realizar tareas que son demasiado difíciles o peligrosas para nosotros los humanos. ¿Nos espera un futuro extraordinario o solo avanzamos hacia nuestro reemplazo?

La mano invisible de la tecnología está guiando a la humanidad hacia un futuro incierto: un futuro en el que los humanos serán atendidos por computadoras y robots con inteligencia y completa autonomía. Algunos académicos y científicos tienen puntos de vista diferentes al respecto. Para algunos de ellos, los peligros de la inteligencia artificial superan los beneficios, mientras que otros argumentan que es necesaria si queremos cumplir nuestro destino e ir más allá de las fronteras de la Tierra para explorar y buscar materias primas que se están agotando en la Tierra.

Menlo Park, California, 16 de junio de 2017: laboratorio de investigación de inteligencia artificial de Facebook. Se estaba realizando una prueba para ver qué sucedía cuando dos Chatbots, programas que utilizan el aprendizaje automático para comunicarse de manera inteligente con humanos en línea, se comunican entre sí. Unos minutos después de la prueba, los Chatbots comenzaron a comportarse de manera inesperada, interactuando de una manera que los programadores no podían entender.

Los programadores no entendieron cómo se desarrollaron las cosas. Luego, gracias al desarrollo de un modelo, se pudo saber de qué se trataba: los dos Chatbots habían creado un lenguaje. Tras la prueba, los ingenieros descubrieron que los programas habían creado un lenguaje completamente nuevo, desconocido para los supervisores, para poder comunicarse en secreto. Esto se debió a que los investigadores de Facebook no les habían dicho a las computadoras que los dos Chatbots no podían desarrollar su propio lenguaje. Sin embargo, eso alarmó a todos y la prueba se detuvo porque no querían que las computadoras hablaran entre sí sin ser entendidas. Luego se les dijo a las computadoras que tenían que comunicarse en inglés.

Hay que admitir que lo que pasó es increíble. Básicamente, si dos computadoras con inteligencia artificial comienzan a interactuar entre sí, es posible que desarrollen un código de comunicación, es decir, un lenguaje secreto que solo ellos pueden entender. Lo que pasó es solo la punta del iceberg. Es como mirar dentro de la caja de Pandora y volver a cerrarla inmediatamente después. Si solo dos Chatbots son suficientes para burlarse de los humanos, ¿qué sucederá en el futuro cercano, ya que el mismo tipo de tecnología se aplica a todos los demás sectores de la sociedad? (2. continuación)

 

* Copresidente del Consejo Asesor Honoris Causa. El Profesor Giancarlo Elia Valori es un eminente economista y empresario italiano. Posee prestigiosas distinciones académicas y órdenes nacionales. Ha dado conferencias sobre asuntos internacionales y economía en las principales universidades del mundo, como la Universidad de Pekín, la Universidad Hebrea de Jerusalén y la Universidad Yeshiva de Nueva York. Actualmente preside el «International World Group», es también presidente honorario de Huawei Italia, asesor económico del gigante chino HNA Group y miembro de la Junta de Ayan-Holding. En 1992 fue nombrado Oficial de la Legión de Honor de la República Francesa, con esta motivación: “Un hombre que puede ver a través de las fronteras para entender el mundo” y en 2002 recibió el título de “Honorable” de la Academia de Ciencias del Instituto de Francia.

 

Traducido al español por el Equipo de la SAEEG con expresa autorización del autor. Prohibida su reproducción.

©2022-saeeg®