Un ‘padrino de la IA’ pide la creación de una organización para defender a la humanidad

Un 'padrino de la inteligencia artificial' exige la formación de una asociación para salvaguardar a la humanidad

Este artículo fue sindicado desde el Bulletin of the Atomic Scientists, que ha cubierto las amenazas hechas por el hombre a la humanidad desde 1945.

La arteria principal de la Pequeña Italia de Montreal está llena de cafés, bares de vino y pastelerías que se extienden a las calles residenciales arboladas. Generaciones de agricultores, carniceros, panaderos y pescaderos venden productos de la granja a la mesa en el gran mercado al aire libre del vecindario, el Marché Jean-Talon. Pero la tranquila enclavación también alberga un moderno centro global de IA de 90,000 pies cuadrados conocido como Mila–Quebec AI Institute. Mila afirma albergar la mayor concentración de investigadores académicos de aprendizaje profundo en el mundo, incluyendo más de 1,000 investigadores y más de 100 profesores que trabajan con más de 100 socios de la industria de todo el mundo.

Yoshua Bengio, el director científico de Mila, es un pionero en redes neuronales artificiales y aprendizaje profundo, un enfoque de aprendizaje automático inspirado en el cerebro. En 2018, Bengio, el científico jefe de IA de Meta, Yann LeCun, y el ex investigador de IA de Google Geoffrey Hinton recibieron el Premio Turing, conocido como el Nobel de la computación, por “avances conceptuales e ingenieriles que han convertido las redes neuronales profundas en un componente fundamental de la computación”. Juntos, los tres científicos informáticos son conocidos como los “padrinos de la IA”.

En julio, Bengio habló ante un subcomité del Senado de EE.UU. que está considerando posibles leyes para regular la tecnología en rápida evolución. Allí, explicó que él y otros investigadores principales de IA han revisado sus estimaciones sobre cuándo la inteligencia artificial podría alcanzar niveles humanos de competencia cognitiva amplia.

“Anteriormente se pensaba que estaba a décadas o incluso siglos de distancia, ahora creemos que podría estar dentro de unos pocos años o décadas”, dijo Bengio a los senadores. “El marco de tiempo más corto, digamos cinco años, es realmente preocupante, porque necesitaremos más tiempo para mitigar de manera efectiva las amenazas potencialmente significativas para la democracia, la seguridad nacional y nuestro futuro colectivo”.

El mes pasado, en un día en que las temperaturas en Montreal superaron los 90 grados Fahrenheit, Bengio y yo nos sentamos en su oficina para discutir matices en los titulares impactantes sobre IA, tabúes entre los investigadores de IA y por qué los principales investigadores de IA pueden estar en desacuerdo acerca de los riesgos que la IA representa para la humanidad. Esta entrevista ha sido editada y resumida para mayor claridad.

Susan D’Agostino: Un titular de la BBC en mayo de este año declaró que te sentías “perdido” por tu trabajo de toda la vida. Pero escribiste en tu blog que nunca hiciste esta declaración. Sin embargo, pareces estar reflexionando profundamente. ¿Cómo caracterizarías lo que estás pasando?

Yoshua Bengio: Dije algo relacionado con eso, pero se perdió el matiz.

Experimenté un cambio intenso durante el invierno en la forma en que percibía mi propio trabajo, su propósito y mis prioridades. Lo que intenté expresar en la entrevista de la BBC y luego en mi blog es esto: No es que esté perdido. Estoy cuestionando y dándome cuenta de que tal vez no presté atención a algo importante, de una manera que no es solo intelectual, sino también emocional.

He leído trabajos sobre el riesgo existencial durante al menos una década. Los estudiantes aquí en mi grupo y cercanos estaban hablando de esto. A nivel técnico, tomé muy en serio el libro de Stuart Russell [Human Compatible: Artificial Intelligence and the Problem of Control] que salió en 2019.

Durante el invierno, me di cuenta de que la naturaleza de doble uso de la IA y el potencial de pérdida de control eran muy serios.

Pero no lo tomé en serio, hablando emocionalmente. Pensaba: “Oh sí, esto es algo en lo que la gente debería fijarse”. Pero realmente estaba pensando: “Esto está lejos en el futuro”. Podía seguir mi camino porque lo que estoy haciendo será útil e importante científicamente. Queremos entender la inteligencia en humanos y animales y construir máquinas que puedan ayudarnos a enfrentar todo tipo de desafíos importantes y difíciles. Así que continué sin cambiar nada en la forma en que estaba trabajando.

Pero durante el invierno, me di cuenta de que la naturaleza de doble uso y el potencial de pérdida de control eran muy serios. Podría suceder mucho antes de lo que había proyectado. No podía seguir ignorando esto. Tenía que cambiar lo que estaba haciendo. Además, tenía que hablar al respecto porque muy pocas personas, incluso en la comunidad de IA, se tomaron estas preguntas en serio hasta los últimos meses. En particular, yo y personas como Geoffrey Hinton y algunos otros fuimos escuchados más que aquellos que estaban hablando de esto y habían comprendido la importancia de esos riesgos mucho antes que nosotros.

Hay un aspecto psicológico aquí. Construyes tu identidad o el significado de tu vida de una forma particular. Y luego alguien te dice, o te das cuenta mediante el razonamiento, de que la forma en que te has retratado no es fiel a la realidad. Hay algo realmente importante que estás ignorando. Entiendo por qué es muy difícil para muchos de mis colegas aceptar algo así para ellos mismos y luego tener el coraje de hablar acerca de algo [las posibles amenazas catastróficas de la IA] que ha sido básicamente tabú en nuestra comunidad por mucho tiempo.

Es difícil. Las personas transitan este camino en diferentes momentos o a diferentes ritmos. Y está bien. Tengo mucho respeto por mis colegas que no ven las cosas de la misma manera que yo. Yo estaba en el mismo lugar hace un año.

¿De qué manera se manifestaba ese tabú en la comunidad de investigación en IA antes, o incluso aún hoy en día?

Las personas que hablaban sobre el riesgo existencial básicamente no publicaban en lugares científicos tradicionales. Funcionaba en ambos sentidos. Encontraban resistencia al tratar de hablar o presentar artículos. Pero también, en su mayoría, daban la espalda a los lugares científicos tradicionales en su campo.

Lo que ha sucedido en los últimos seis meses es traspasar esa barrera.

Tu evolución coincidió con la creciente conciencia pública sobre los modelos de lenguaje grandes, desencadenada por el lanzamiento de ChatGPT de OpenAI a finales de 2022. Inicialmente, muchos en el público quedaron impresionados, incluso intimidados por ChatGPT. Pero ahora, algunos no están impresionados. The Atlantic publicó una historia, “ChatGPT es más tonto de lo que piensas”. En un reciente debate presidencial republicano en Estados Unidos, Chris Christie dijo a Vivek Ramaswamy que ya había “tenido suficiente esta noche con un tipo que suena como ChatGPT”.

¿Influyó el lanzamiento de ChatGPT en el momento en que te diste cuenta de esto? De cualquier manera, ¿ahora ves a ChatGPT como una broma?

Mi trayectoria fue lo contrario de lo que estás describiendo. Quiero comprender y cerrar la brecha entre la IA actual y la inteligencia humana. ¿Qué le falta a ChatGPT? ¿Dónde falla? Intenté plantear preguntas que lo hicieran hacer algo estúpido, al igual que muchos de mis colegas en los meses siguientes al lanzamiento de ChatGPT.

En mis dos primeros meses jugando con él, me sentí mayormente confortado en mis creencias de que todavía le falta algo fundamental. No estaba preocupado. Pero después de jugar lo suficiente con él, me di cuenta de que fue un avance sorprendentemente asombroso. Nos estamos moviendo mucho más rápido de lo que anticipaba. Tengo la impresión de que no tomará mucho arreglar lo que falta.

Cada mes se me ocurría una nueva idea que podría ser la clave para traspasar esa barrera. No ha sucedido aún, pero podría ocurrir rápidamente, tal vez no con mi grupo, pero quizás con otro grupo. Tal vez llevará 10 años. Con la investigación, puede que sientas que estás muy cerca, pero podría haber algún obstáculo que no hayas considerado.

Si combinamos lo que estaba trabajando con respecto a la capacidad de representar distribuciones de probabilidad increíblemente complejas, que es de lo que se trata esto, y la capacidad de aprender y utilizar tal cantidad asombrosa de información de manera más razonada, entonces podríamos estar bastante cerca. La capacidad de utilizar información de manera intuitiva corresponde a lo que yo y otros llamamos habilidades del Sistema 1. La fina capa que falta, conocida como habilidades del Sistema 2, son habilidades de razonamiento.

Empecé a pensar, ¿qué pasaría si, dentro de un año, cerramos esa brecha y luego se escala? ¿Qué va a suceder?

¿Qué hiciste una vez que te diste cuenta de esto?

A finales de marzo, antes de que saliera la primera carta del [Instituto del Futuro de la Vida] [instando a los laboratorios de IA a detener inmediatamente los experimentos gigantes de IA] me comuniqué con Geoff [Hinton]. Traté de convencerlo de firmar la carta. Me sorprendió ver que habíamos llegado independientemente a la misma conclusión.

Esto me recuerda cuando Isaac Newton y Gottfried Leibniz descubrieron independientemente el cálculo al mismo tiempo. ¿Estaba el momento propicio para un descubrimiento múltiple e independiente?

No olvidemos que ya habíamos descubierto algo que otros ya habían descubierto.

Además, Geoff argumentó que las tecnologías de computación digital tienen ventajas fundamentales sobre los cerebros. En otras palabras, incluso si solo descubrimos los principios que son suficientes para explicar la mayor parte de nuestra inteligencia y los ponemos en máquinas, las máquinas automáticamente serían más inteligentes que nosotros debido a cosas técnicas como la capacidad de leer grandes cantidades de texto e integrar eso mucho más rápido que un humano, como diez mil o un millón de veces más rápido.

Si lográramos cerrar esa brecha, tendríamos máquinas más inteligentes que nosotros. ¿Qué significa eso en términos prácticos? Nadie lo sabe. Pero fácilmente podrías imaginar que serían mejores que nosotros en hacer cosas como programar, lanzar ciberataques o diseñar cosas que actualmente diseñan biólogos o químicos a mano.

He estado trabajando durante los últimos tres años en aprendizaje automático para la ciencia, especialmente aplicado a la química y la biología. El objetivo era ayudar a diseñar mejores medicamentos y materiales, respectivamente, para combatir pandemias y el cambio climático. Pero las mismas técnicas podrían usarse para diseñar algo letal. Esa realización se acumuló lentamente y firmé la carta.

Tu actitud atrajo mucha atención, incluido el artículo de la BBC. ¿Cómo te fue?

Los medios me obligaron a articular todos estos pensamientos. Eso fue algo bueno. Más recientemente, en los últimos meses, he estado pensando más en lo que deberíamos hacer en términos de política. ¿Cómo mitigamos los riesgos? También he estado pensando en contramedidas.

Soy una persona optimista. No soy un pesimista como algunos pueden llamarme. Estoy pensando en soluciones.

Algunos podrían decir: “Oh, Yoshua está tratando de asustar”. Pero soy una persona optimista. No soy un pesimista como algunos pueden llamarme. Hay un problema y estoy pensando en soluciones. Quiero discutirlo con otros que puedan aportar algo. La investigación para mejorar las capacidades de la inteligencia artificial está avanzando rápidamente porque ahora hay mucho, mucho más dinero invertido en esto. Eso significa que mitigar los mayores riesgos es urgente.

Ilustración fotográfica: James Marshall; Getty Images

Tenemos regulaciones y tratados internacionales para los riesgos nucleares, pero, por ejemplo, Corea del Norte no está en la mesa. ¿Podríamos realmente contener el riesgo que representa la IA?

Dependiendo de cuán cautelosos seamos en conjunto, podríamos contener más o menos los riesgos con regulaciones nacionales y tratados internacionales. Es importante, al igual que con los tratados nucleares, contar con estándares mínimos entre naciones. Los daños que la IA podría causar no se limitan a las fronteras nacionales.

No hay una garantía del 100 por ciento de que no ocurra nada malo. Incluso si tuviéramos un tratado internacional que prohíbe la IA más poderosa que cierto nivel, alguien desobedecerá esas restricciones. Pero retrasar eso, digamos, 10 años, sería excelente. En ese tiempo, podríamos mejorar nuestra supervisión. Podríamos mejorar nuestras defensas. Podríamos comprender mejor los riesgos.

Actualmente se requiere mucho dinero y hardware especializado para construirlo. En este momento, no puedes comprar hardware como las GPU [unidades de procesamiento gráfico] en cantidades muy grandes sin ser notado, pero los gobiernos no están rastreando quién compra qué. Podrían comenzar a hacer eso. Estados Unidos ya tiene controles de exportación para estas cosas, lo que está perjudicando a China y Corea del Norte si quieren participar en esa competencia.

Hemos tenido discusiones sobre el peligro de las armas nucleares y el cambio climático; existe otro peligro que tiene una magnitud similar de riesgo.

El tiempo es esencial y la regulación puede reducir las probabilidades de catástrofes o, equivalentemente, retrasar el momento en que algo realmente malo va a suceder. O minimizar la amplitud de lo que pueda suceder.

Desafortunadamente, el lanzamiento de las bombas en Hiroshima y Nagasaki es realmente la razón por la cual los gobiernos se sentaron a dialogar y estuvieron dispuestos a discutir, a pesar de la Guerra Fría. Espero que no necesitemos llegar a ese nivel de catástrofe antes de actuar. Pero podría llegar a eso.

A la gente le gusta hablar de la inteligencia artificial general. ¿Crees que podría suceder de la noche a la mañana? ¿O hay un continuum?

Hay un continuum. Absolutamente. Solía no gustarme ese término porque creo que la inteligencia completamente general no puede existir como se definió hace 20 años. Pero ahora, la forma en que las personas lo entienden y la forma en que los medios lo usan simplemente significa “un sistema de IA que es bueno en muchas cosas”.

Desde el punto de vista del daño, no importa si es mejor que nosotros en todo. Tal vez haya algún juego en el que ganemos. Si son mejores que nosotros en cosas que podrían dañarnos, ¿a quién le importa [un juego que podríamos ganar]? Lo importante son sus habilidades en áreas que podrían causar daño. Eso es lo que deberíamos preocuparnos, no alguna definición super de “Oh, tenemos IA”. Incluso podría ser peligroso ahora mismo si lo diseñamos con objetivos maliciosos en mente.

¿Hay una posible interacción entre la IA y el cambio climático que conlleve riesgos?

La IA debería ayudar principalmente al cambio climático. No veo a la IA utilizando el cambio climático como un arma a menos que se presente una situación de pérdida de control. En ese caso, cambiar el clima podría ser una forma [para la IA] de acelerar nuestra destrucción o sembrar el caos en la sociedad.

Pero ¿cómo podría una máquina cambiar el clima?

Esta es una pregunta importante. Muchas personas responden a las preocupaciones [sobre los riesgos de la IA] diciendo “¿Cómo podría una computadora hacer algo en el mundo real? Todo es virtual. Entendemos los ciberataques porque todo está en la máquina”.

Pero es muy simple. Hay muchas formas en las que lo que sucede en las computadoras puede afectarnos. En primer lugar, gran parte de nuestra infraestructura económica depende de las computadoras: nuestras comunicaciones, nuestras cadenas de suministro, nuestra energía, nuestra electricidad y nuestro transporte. Imagina si muchas de estas cosas fallaran debido a los ciberataques. No destruiría a todos, pero podría llevar a la sociedad a un caos tal que la cantidad de sufrimiento podría ser enorme.

También es plausible que, dado el progreso en la manipulación y comprensión del lenguaje con sistemas de IA, pudiéramos tener sistemas de IA en pocos años que pudieran influir en los humanos. Podrían convencernos de hacer cosas por ellos.

Piensa en los teóricos de la conspiración. Un sistema de IA podría estar suelto en internet. Ahí podría comenzar a jugar con las personas en las redes sociales para ver qué diálogo tendría éxito en cambiar la opinión de las personas sobre algo. Eso podría llevarnos a realizar algunas pequeñas acciones que, junto con otras acciones, podrían tener un resultado catastrófico. Eso es plausible.

Por supuesto, tal vez eso no suceda. Tal vez tengamos suficientes defensas y tal vez sea difícil convencer a los humanos. Pero todo lo que he visto en los últimos años con las teorías de la conspiración me hace pensar que somos muy influenciables. Tal vez no todos, pero no es necesario que todos lo sean. Solo necesitaría suficientes personas o suficientes personas con poder para marcar la diferencia y crear resultados catastróficos. Entonces, los humanos podrían hacer el trabajo sucio.

Entonces, la ignorancia humana es un talón de Aquiles. ¿También somos potencialmente vulnerables a la IA de otras formas?

Aquí hay otra amenaza, incluso más simple, que ni siquiera requiere creer en cosas que no existen en este momento. Un sistema de IA podría sobornar a las personas para hacer un trabajo. Las organizaciones criminales hacen cosas que les pedimos por dinero, y no preguntan de dónde viene el dinero. Incluso ahora mismo es bastante fácil para una persona o una máquina tener presencia a través de las computadoras y acceder a la web oscura.

Si miramos al menos cinco años hacia el futuro, también es plausible que descubramos la robótica. Ahora mismo, tenemos máquinas que son buenas en visión. También tenemos máquinas que son buenas en lenguaje. La tercera parte de un robot es el control, tener un cuerpo que se pueda controlar para lograr objetivos. Hay mucha investigación en aprendizaje automático para la robótica, pero no ha tenido su momento de avance como lo hemos tenido para el lenguaje y la visión en la última década. Pero podría llegar antes de lo que pensamos.

¿Cuál es el obstáculo para tener un avance con la robótica?

[En la robótica], no tenemos la misma cantidad de datos que tenemos, por ejemplo, para el lenguaje e imágenes. No tenemos una implementación de 100 millones de robots que puedan recopilar grandes cantidades de datos como podemos hacer con el texto. Incluso entre culturas, el texto funciona. Puedes mezclar texto de diferentes idiomas y aprovechar la unión de todos ellos. Eso no se ha hecho para la robótica. Pero alguien con suficiente dinero podría hacerlo en los próximos años. Si ese es el caso, entonces la IA tendría presencia física.

En este momento, un sistema de IA que se haya vuelto rebelde y autónomo todavía necesitaría humanos para obtener electricidad y partes. Necesitaría una sociedad humana funcional en este momento. Pero eso podría cambiar dentro de una década. Es posible lo suficiente como para no contar con esto para protegernos.

Háblame de tus preocupaciones sobre la posible interacción de la IA con el riesgo nuclear o la bioseguridad.

Realmente queremos evitar facilitar que un sistema de IA controle el lanzamiento de armas nucleares. La IA en el ámbito militar es super peligrosa, incluso existencial. Necesitamos acelerar el esfuerzo internacional para prohibir las armas autónomas letales.

En general, debemos mantener a las IA lejos de cualquier cosa que pueda causar daño rápidamente. La bioseguridad probablemente sea aún más peligrosa que el peligro nuclear asociado con la IA. Muchas compañías tomarán un archivo que les envíes que especifica una secuencia de ADN y luego programarán algunas bacterias, levaduras o virus que tendrán esas secuencias en su código y generarán las proteínas correspondientes. Es muy barato. Es rápido. Por lo general, esto es para algo bueno, para crear nuevos medicamentos, por ejemplo. Pero las compañías que hacen eso pueden no tener los medios técnicos para saber que la secuencia que les enviaste podría ser utilizada de manera maliciosa.

Necesitamos expertos en IA y biotecnología para establecer regulaciones que minimicen esos riesgos. Si eres una empresa farmacéutica establecida, perfecto. Pero no se debe permitir que alguien en su garaje cree nuevas especies.

¿Qué sentido le das a las marcadas discrepancias entre tú y otros principales investigadores de IA, incluido tu co-receptor del premio Turing, Yann LeCun, quien no firmó la carta del Instituto Future of Life sobre los peligros potenciales de la IA?

Ojalá comprendiera mejor por qué personas que están mayormente alineadas en términos de valores, racionalidad y experiencia llegan a conclusiones tan diferentes.

Tal vez algunos factores psicológicos están en juego. Tal vez depende de dónde vengas. Si trabajas para una empresa que está vendiendo la idea de que la IA será buena, puede ser más difícil darle la vuelta como yo he hecho. Hay una buena razón por la cual Geoff dejó Google antes de hablar. Tal vez los factores psicológicos no siempre son conscientes. Muchas de estas personas actúan de buena fe y son sinceras.

Además, para pensar en estos problemas, tienes que adoptar un modo de pensamiento que muchos científicos intentan evitar. A los científicos en mi campo y en otros campos les gusta expresar conclusiones públicamente que se basan en evidencia muy sólida. Haces un experimento. Lo repites 10 veces. Tienes confianza estadística porque se repite. Aquí estamos hablando de cosas mucho más inciertas y no podemos experimentar. No tenemos un historial de 10 veces en el pasado en que sistemas peligrosos de IA se levantaron. La postura de decir: “Bueno, está fuera de la zona en la que puedo sentirme seguro al decir algo”, es muy natural y fácil. Lo entiendo.

Pero las apuestas son tan altas que tenemos el deber de mirar hacia el futuro incierto. Debemos considerar posibles escenarios y pensar en qué se puede hacer. Los investigadores de otras disciplinas, como la ciencia ética o las ciencias sociales, hacen esto cuando no pueden experimentar. Tenemos que tomar decisiones aunque no tengamos modelos matemáticos de cómo se desarrollarán las cosas. Es incómodo para los científicos llegar a ese lugar. Pero porque sabemos cosas que otros no saben, tenemos el deber de ir allí, aunque sea incómodo.

Además de aquellos que tienen opiniones diferentes, hay una vasta mayoría silenciosa de investigadores que, debido a esa incertidumbre, no se sienten lo suficientemente seguros para tomar una posición a favor o en contra.

¿Cómo reaccionaron tus colegas en Mila ante tu reflexión sobre el trabajo de tu vida?

La reacción más frecuente aquí en Mila fue por parte de personas que estaban preocupadas principalmente por los daños actuales de la IA, temas relacionados con la discriminación y los derechos humanos. Tenían miedo de que hablar sobre estos riesgos futuros que suenan a ciencia ficción distraiga de la discusión sobre la injusticia que está ocurriendo, la concentración de poder y la falta de diversidad y voz para las minorías o las personas en otros países que están al final de lo que hacemos.

Estoy totalmente de acuerdo con ellos, excepto que no es uno o el otro. Debemos lidiar con todos los problemas. Ha habido avances en ese sentido. La gente entiende que es irrazonable descartar los riesgos existenciales o, como yo prefiero llamarlos, los riesgos catastróficos. [Lo último] no significa que los humanos hayan desaparecido, pero puede haber mucho sufrimiento.

El cambio climático es más fácil. Con la IA, necesitas asegurarte de que nadie vaya a hacer algo peligroso.

También hay otras voces, principalmente provenientes de la industria, que dicen: “¡No te preocupes! ¡Déjanos encargarnos de eso! ¡Autoregularemos y protegeremos al público!” Esta voz muy fuerte tiene mucha influencia sobre los gobiernos.

Las personas que sienten que la humanidad tiene algo que perder no deberían pelear entre sí. Deberían hablar con una sola voz para hacer que los gobiernos actúen. Así como hemos tenido discusiones públicas sobre el peligro de las armas nucleares y el cambio climático, el público necesita comprender que hay otro peligro que tiene una magnitud similar de riesgos potenciales.

Cuando piensas en el potencial de la inteligencia artificial para amenazar a la humanidad, ¿en qué punto te encuentras entre el desespero y la esperanza?

¿Cuál es la palabra correcta? En francés, es impuissant. Es una sensación de que hay un problema, pero no puedo resolverlo. Es peor que eso, ya que creo que es solucionable. Si todos estuviéramos de acuerdo en un protocolo en particular, podríamos evitar por completo el problema.

El cambio climático es similar. Si todos decidimos hacer lo correcto, podríamos detener el problema ahora mismo. Habría un costo, pero podríamos lograrlo. Lo mismo ocurre con la inteligencia artificial. Hay cosas que podríamos hacer. Podríamos decidir no construir cosas que no estamos seguros de que sean seguras. Es muy simple.

Pero eso va en contra de la manera en que nuestra economía y nuestros sistemas políticos están organizados. Parece muy difícil de lograr hasta que algo catastrófico suceda. Entonces tal vez la gente lo tome más en serio. Pero incluso entonces, es difícil porque tienes que convencer a todos para que se comporten adecuadamente.

El cambio climático es más fácil. Está bien si solo convencemos al 99 por ciento de los humanos de comportarse bien. Con la inteligencia artificial, necesitas asegurarte de que nadie vaya a hacer algo peligroso.

Creo que “impotente” es la traducción de impuissant.

No soy completamente impotente, porque puedo hablar y puedo tratar de convencer a otros de que se muevan en la dirección correcta. Hay cosas que podemos hacer para reducir esos riesgos.

La regulación no es perfecta, pero podría frenar las cosas. Por ejemplo, si el número de personas autorizadas para manipular sistemas de inteligencia artificial potencialmente peligrosos se reduce a unas pocas cientos en el mundo, podría reducir los riesgos en más de 1,000 veces. Vale la pena hacerlo y no es tan difícil. No permitimos que cualquiera conduzca un avión de pasajeros. Regulamos el vuelo y eso reduce mucho la tasa de accidentes.

Incluso si encontramos formas de construir sistemas de inteligencia artificial que sean seguros, es posible que no sean seguros desde el punto de vista de preservar la democracia. Aún podrían ser muy poderosos y el poder se te sube a la cabeza si eres humano. Así que podríamos perder la democracia.

¿Cómo pasas de la existencia de un sistema de IA seguro pero poderoso a perder la democracia?

Por ejemplo, podría comenzar con el dominio económico. No estoy diciendo que las empresas no puedan hacer cosas útiles, pero su misión es dominar a los demás y ganar dinero.

Si una empresa avanza más rápido con la IA en algún momento, podría tomar el control económico. Proporcionan todo mejor y más barato que cualquier otra persona. Luego usan su poder para controlar la política, porque así funciona nuestro sistema. En ese camino, podríamos terminar con una dictadura de gobierno mundial.

No se trata solo de regular el uso de la IA y quién tiene acceso. Necesitamos prepararnos para el día en que se produzca un abuso de ese poder por parte de las personas o por parte de un sistema de IA si perdemos el control y tiene sus propios objetivos.

¿Tienes alguna sugerencia sobre cómo podríamos prepararnos mejor?

En el futuro, necesitaremos una organización de defensa de la humanidad. Tenemos organizaciones de defensa dentro de cada país. Necesitaremos organizar a nivel internacional una forma de protegernos de eventos que de otro modo podrían destruirnos.

Es una visión a largo plazo y llevaría mucho tiempo lograr que múltiples países se pongan de acuerdo en las inversiones correctas. Pero en este momento, todas las inversiones están ocurriendo en el sector privado. No hay nada que se esté haciendo con un objetivo de bien público que pueda defender a la humanidad.