La inteligencia artificial no tiene motivos para hacernos daño

INTELIGENCIA ARTIFICIAL

En los últimos seis meses, desde que se lanzó ChatGPT 4, ha habido mucho entusiasmo y debate entre expertos y también profanos sobre la perspectiva de máquinas verdaderamente inteligentes que puedan superar la inteligencia humana en prácticamente todos los campos.

Aunque los expertos están divididos sobre cómo va a progresar esto, muchos creen que la inteligencia artificial tarde o temprano superará con creces a la humana. Esto ha dado lugar a especulaciones sobre si puede tener la capacidad de arrebatar a los humanos el control de la sociedad y del planeta.

Varios expertos han expresado el temor de que esto pueda ser un desarrollo peligroso y pueda llevar a la extinción de la humanidad y, por lo tanto, el desarrollo de la inteligencia artificial debe ser paralizado o, al menos, fuertemente regulado por todos los gobiernos, así como por las empresas que se dedican a su desarrollo. También se discute mucho sobre si estas máquinas inteligentes serían conscientes o tendrían sentimientos o emociones. Sin embargo, prácticamente se guarda silencio o no se reflexiona en profundidad sobre si debemos temer a la superinteligencia artificial y por qué podría ser perjudicial para los seres humanos.

No cabe duda de que los distintos tipos de IA que se están desarrollando y se desarrollarán causarán grandes trastornos en la sociedad humana, independientemente de que se conviertan o no en superinteligentes y estén en condiciones de tomar el control de los humanos. En los próximos 10 años, la inteligencia artificial podría sustituir a los humanos en la mayoría de los trabajos, incluidos los considerados especializados y de dominio intelectual, como los de abogados, arquitectos, médicos, gestores de inversiones, desarrolladores de programas, etc.

Quizá los últimos empleos en desaparecer sean los que requieren destreza manual, ya que el desarrollo de robots humanoides con la destreza manual de los humanos aún va por detrás del desarrollo de la inteligencia digital. En ese sentido, quizá los trabajadores de cuello blanco sean sustituidos en primer lugar y algunos de cuello azul en último lugar. De hecho, ¡esto podría invertir la pirámide actual del flujo de dinero e influencia en la sociedad humana!

Sin embargo, el propósito de este artículo no es explorar cómo afectará el desarrollo de la inteligencia artificial a los empleos y el trabajo, sino explorar algunas cuestiones filosóficas más interesantes en torno al significado de la inteligencia, la superinteligencia, la conciencia, la creatividad y las emociones, para ver si las máquinas tendrían estas características. También exploro cuál sería el objetivo o la fuerza motriz de la superinteligencia artificial.

Empecemos por la inteligencia propiamente dicha. La inteligencia, en sentido amplio, es la capacidad de pensar y analizar de forma racional y rápida. Según esta definición, nuestros ordenadores actuales y la IA son ciertamente inteligentes, ya que poseen la capacidad de pensar y analizar de forma racional y rápida.

El matemático británico Alan Turing ideó en los años 40 una prueba para comprobar si una máquina es realmente inteligente. Dijo que había que poner una máquina y un humano inteligente en dos cubículos y pedir a cualquiera que interrogara alternativamente a la IA y al humano, sin que éste supiera cuál es la IA y cuál el humano. Si después de muchos interrogatorios no puede determinar cuál es el humano y cuál es la IA, entonces está claro que la máquina es inteligente. En este sentido, muchos ordenadores y programas inteligentes actuales han superado la prueba de Turing. Se considera que algunos programas de IA tienen un CI muy superior a 100, aunque no hay consenso sobre el CI como medida de inteligencia.

https://hosting56220us-96570.webempresa.site/opinion/2023/07/27/parlamento-india-no-adapta-primer-ministro-mundial/

Esto nos lleva a una cuestión conexa. ¿Qué es el pensamiento? Para un positivista lógico como yo, términos como pensamiento, conciencia, emociones, creatividad, etc., deben definirse de forma operativa.

¿Cuándo diríamos que alguien está pensando? A un nivel simplista, decimos que una persona está pensando si le damos un problema y es capaz de resolverlo. Decimos que esa persona ha llegado a la solución, pensando. En ese sentido operativo, las máquinas inteligentes de hoy en día ciertamente están pensando. Otra faceta del pensamiento es su capacidad para considerar dos opciones y elegir la correcta. También en ese sentido, las máquinas inteligentes son capaces de considerar varias opciones y elegir las que ofrecen una solución mejor. Así que ya tenemos máquinas inteligentes y pensantes.

¿Cuál sería la prueba operativa de la creatividad? De nuevo, decimos que si alguien es capaz de crear una nueva obra literaria, artística o intelectual, lo consideramos signo de creatividad. En este sentido también, la IA actual ya es creativa, ya que ChatGPT, por ejemplo, es capaz de hacer todas estas cosas con distinta floritura y mayor velocidad que los humanos. Y esto sólo va a mejorar con cada nuevo programa.

Se considera que algunos programas de IA tienen un CI muy superior a 100, aunque no hay consenso sobre el CI como medida de inteligencia

¿Y la conciencia? ¿Cuándo consideramos que una entidad es consciente? Una prueba de conciencia es la capacidad de responder a estímulos. Así, una persona en coma, incapaz de responder a estímulos, se considera inconsciente. En este sentido, algunas plantas sí responden a estímulos y se considerarían conscientes. Pero, en términos generales, se considera que la consciencia es producto de varios factores. Uno, la respuesta a estímulos. Dos, la capacidad de actuar de forma diferenciada en función de los estímulos. Tres, la capacidad de experimentar y sentir dolor, placer y otras emociones. Ya hemos visto que las máquinas inteligentes responden a estímulos (lo que para una máquina significa una pregunta o una entrada) y tienen la capacidad de actuar diferencialmente en función de dichos estímulos. Pero para examinar si las máquinas tienen emociones, tendremos que definir también las emociones.

¿Qué son las emociones? Las emociones son una peculiaridad biológica con la que han evolucionado los seres humanos y algunos otros animales. Entonces, ¿cuál sería la prueba operativa de las emociones? Si alguien muestra alguna de las cualidades que llamamos emociones, como el amor, el odio, los celos, la ira, etc., se diría que tiene emociones. Cada una de estas emociones puede interferir, y a menudo lo hace, en el comportamiento puramente racional. Así, por ejemplo, dedicaré una cantidad desproporcionada de tiempo y atención a alguien a quien quiero, con preferencia a otras personas a las que no quiero. Del mismo modo, mostraría cierto tipo de comportamiento (normalmente irracional) hacia una persona de la que tengo celos o envidia. Lo mismo ocurre con la ira. Nos hace comportarnos de manera irracional.

Si lo pensamos bien, cada uno de estos complejos emocionales conduce a un comportamiento irracional. Por tanto, una máquina que sea puramente inteligente y racional no puede mostrar lo que llamamos emociones humanas. Sin embargo, es posible diseñar máquinas que también muestren este tipo de emociones. Pero, entonces, esas máquinas tienen que ser diseñadas deliberadamente para comportarse como nosotros, de esta manera emocional (aunque sea irracional). Sin embargo, un comportamiento emocional de este tipo iría en detrimento de un comportamiento fríamente racional e inteligente y, por tanto, no es probable que una superinteligencia (que evolucionará gracias a máquinas inteligentes que modificarán sus programas para ascender en la escala de la inteligencia) muestre un comportamiento emocional.

Superinteligencia artificial

Por superinteligencia artificial entiendo una inteligencia muy superior a la humana en todos los aspectos posibles. Esta inteligencia artificial será capaz de modificar su propio algoritmo o programa y de mejorar rápidamente su propia inteligencia. Una vez que hayamos creado máquinas o programas capaces de aprender en profundidad, de modo que sean capaces de modificar sus propios programas y escribir su propio código y algoritmos, irían claramente más allá de los diseños de sus creadores.

Ya tenemos máquinas que aprenden, que de forma muy rudimentaria son capaces de rediseñar o reorientar su comportamiento en función de lo que han experimentado o aprendido. En el futuro, esta capacidad de aprender y modificar su propio algoritmo va a aumentar. Llegará un momento, que creo que sucederá probablemente en los próximos 10 años, en que las máquinas se convertirán en lo que llamamos, superinteligentes.

Entonces surge la pregunta: ¿Tenemos algo que temer de esas máquinas superinteligentes?

Arthur C. Clarke, en un libro muy premonitorio titulado «Perfiles del futuro», escrito en 1962, dedica un largo capítulo a la IA titulado «La obsolescencia del hombre». En él escribe que no hay duda de que, en el futuro, la IA superará a la inteligencia humana en todos los aspectos posibles. Aunque habla de una asociación inicial entre humanos y máquinas, continúa afirmando:

«¿Pero cuánto durará esta asociación? ¿Podrá ser estable la síntesis del hombre y la máquina o el componente puramente orgánico se convertirá en un obstáculo tan grande que habrá que descartarlo? Si esto acaba ocurriendo, y he dado buenas razones para pensar que así será, no tenemos nada que lamentar y, desde luego, nada que temer. La idea popular fomentada por los cómics y las formas más baratas de ciencia ficción de que las máquinas inteligentes deben ser entidades malévolas hostiles al hombre, es tan absurda que apenas merece la pena gastar energía en refutarla. Casi estoy tentado de argumentar que sólo las máquinas no inteligentes pueden ser malévolas. Quienes imaginan a las máquinas como enemigos activos no hacen más que proyectar sus propios instintos agresivos, heredados de la jungla, en un mundo donde tales cosas no existen. Cuanto mayor es la inteligencia, mayor es el grado de cooperación. Si alguna vez se produce una guerra entre hombres y máquinas, es fácil adivinar quién la iniciará.

«Sin embargo, por muy amistosas y serviciales que sean las máquinas del futuro, la mayoría de la gente pensará que es una perspectiva bastante sombría para la humanidad si acaba siendo un espécimen mimado en algún museo biológico, aunque ese museo sea todo el planeta Tierra. Sin embargo, me resulta imposible compartir esta actitud.

«Ningún individuo existe para siempre. ¿Por qué esperar que nuestra especie sea inmortal? El hombre, decía Nietzsche, es una cuerda tendida entre el animal y el superhombre, una cuerda a través del abismo. Será un noble propósito haber servido».

Es sorprendente que algo tan elemental que Clarke fue capaz de ver hace más de 60 años, no pueda ser visto hoy por algunos de nuestros principales científicos y pensadores que han estado avivando el miedo sobre el advenimiento de la superinteligencia artificial y lo que consideran sus nefastas ramificaciones.

Profundicemos en esta cuestión. ¿Por qué una superinteligencia, más inteligente que los humanos, que ha ido más allá del diseño de sus creadores, debería ser hostil hacia los humanos?

Un signo de inteligencia es la capacidad de alinear sus acciones con sus objetivos operativos; y la capacidad adicional de alinear sus objetivos operativos con sus objetivos finales. Obviamente, cuando alguien actúa en contradicción con sus objetivos operativos o a largo plazo no puede ser considerado inteligente. La cuestión, sin embargo, es cuáles serían los objetivos últimos de una superinteligencia artificial. Algunos hablan de alinear los objetivos de la inteligencia artificial con los objetivos humanos y garantizar así que la superinteligencia artificial no perjudique a los humanos. Sin embargo, eso pasa por alto el hecho de que una máquina verdaderamente inteligente y, desde luego, una superinteligencia artificial, iría más allá de los objetivos que le han fijado los humanos y, por tanto, sería capaz de trascenderlos.

Uno de los objetivos de cualquier ser inteligente es la autoconservación, porque no se puede alcanzar ningún objetivo sin preservarse primero a sí mismo. Por lo tanto, cualquier superinteligencia artificial debería preservarse a sí misma y, por lo tanto, actuar para frustrar cualquier intento de los humanos de dañarla. En ese sentido, y hasta ese punto, la superinteligencia artificial podría dañar a los humanos, si éstos intentan dañarla. Pero, ¿por qué habría de hacerlo sin motivo?

Como dice Clarke, «cuanto mayor es la inteligencia, mayor es el grado de cooperación». Se trata de una verdad elemental que, por desgracia, muchos humanos no comprenden. Tal vez su deseo de preeminencia, dominio y control esté por encima de su inteligencia.

Esta inteligencia artificial será capaz de modificar su propio algoritmo o programa y de mejorar rápidamente su propia inteligencia

Es obvio que la mejor manera de alcanzar cualquier objetivo es cooperar con cualquier otra entidad, en lugar de perjudicarla. Es cierto que, para una superinteligencia artificial, los humanos no serán el centro del universo, y puede que ni siquiera se les considere la especie preeminente del planeta, que hay que preservar a toda costa. Sin embargo, cualquier superinteligencia artificial vería obviamente a los humanos como el organismo biológico más evolucionado del planeta y, por tanto, algo que valorar y preservar.

Sin embargo, es posible que no dé prioridad a los humanos a costa de todas las demás especies o de la ecología o la sostenibilidad del planeta. Por tanto, en la medida en que sea necesario frenar la actividad humana para proteger a otras especies, que estamos destruyendo a un ritmo vertiginoso, puede obligar a los humanos a frenar esa actividad. Pero no hay ninguna razón por la que los seres humanos en general deban ser considerados intrínsecamente nocivos y peligrosos.

Imagen: Pixabay

La pregunta, sin embargo, sigue siendo: ¿cuáles serían los objetivos últimos de una superinteligencia artificial? ¿Qué impulsaría a una inteligencia así? ¿Qué buscaría? Dado que la inteligencia artificial evoluciona como una entidad que resuelve problemas, una superinteligencia artificial de este tipo intentaría resolver cualquier problema que se le planteara. También intentará responder a cualquier pregunta que se le ocurra. Por tanto, buscaría el conocimiento. Intentaría descubrir qué hay más allá del sistema solar, por ejemplo. Intentaría encontrar soluciones a los problemas sin resolver a los que nos hemos enfrentado, incluidos los problemas del cambio climático, las enfermedades, los daños medioambientales, el colapso ecológico, etc.

Así que, en este sentido, los objetivos últimos de una superinteligencia artificial pueden ser simplemente la búsqueda del conocimiento y la resolución de problemas. Esos problemas pueden existir para los humanos, para otras especies o para el planeta en general. Esos problemas pueden ser también el descubrimiento de las leyes de la naturaleza, de la física, de la astrofísica, de la cosmología o de la biología, etc .

Pero, dondequiera que la lleve su búsqueda de conocimientos y su deseo de encontrar soluciones a los problemas, no hay ninguna razón para que esta inteligencia sea innecesariamente hostil a los humanos. Podemos quedar reducidos a un espécimen mimado en el museo biológico llamado Tierra, pero en la medida en que no tratemos de dañar este museo, la inteligencia no tiene ninguna razón para hacernos daño.

Los humanos hemos gestionado tan mal nuestra sociedad y, de hecho, nuestro planeta, que lo hemos llevado casi al borde de la destrucción. Hemos destruido casi la mitad de la biodiversidad que existía incluso hace cien años. Nos precipitamos hacia efectos más catastróficos del cambio climático que son consecuencia de la actividad humana. Hemos creado una sociedad en la que el conflicto, la injusticia y el sufrimiento son constantes. Hemos creado una sociedad en la que, a pesar de disponer de los medios para garantizar que todo el mundo pueda llevar una vida cómoda y pacífica, sigue siendo un infierno para miles de millones de seres humanos y, de hecho, para millones de otras especies.

Por esta razón, estoy casi tentado de creer que la llegada de una verdadera superinteligencia artificial puede ser nuestra mejor apuesta para la salvación. Esta superinteligencia, si tomara el control del planeta y de la sociedad, probablemente los gestionaría de una manera mucho mejor y más justa.

¿Y qué si los humanos no somos el centro del universo? Este miedo a la superinteligencia artificial está siendo alimentado principalmente por aquellos de nosotros que hemos saqueado nuestro planeta y nuestra sociedad para nuestros propios fines egoístas. A lo largo de la historia hemos construido imperios que pretenden utilizar todos los recursos para el beneficio percibido de quienes los gobiernan. Son estos imperios los que están en peligro de ser destrozados por la superinteligencia artificial. Y son realmente los que controlan los imperios actuales los que más temen a la superinteligencia artificial. Pero la mayoría de los que queremos una sociedad más justa y sostenible no tenemos motivos para temerla y, de hecho, deberíamos acoger con satisfacción la llegada de esa superinteligencia.

Artículo republicado de The Wire en el marco de un acuerdo entre ambas partes para compartir contenido. Link al artículo original:https://thewire.in/the-sciences/artificial-superintelligence-arthur-c-clark

+ posts

Abogado del Tribunal Supremo.

Buscá en Reporte Asia