CEO farmacéutico No detengan la investigación en IA, nuestro trabajo es demasiado importante

CEO farmacéutico No detengan la investigación en IA, es vital para nuestro trabajo

¿Cómo se supone que la sociedad debe abordar los riesgos de la inteligencia artificial? Hay quienes argumentan que los beneficios concebibles superan el peligro inmediato, por lo que las restricciones deberían ser tomadas ligeramente.

“Creo que estas sugerencias generales y amplias de que dejemos de trabajar [en IA] están un poco equivocadas”, dijo Chris Gibson, cofundador y CEO de Recursion Pharmaceuticals, en una reciente entrevista con ENBLE. 

“Creo que es muy importante que las personas continúen aprovechando la oportunidad que existe con el aprendizaje automático”, dijo Gibson.

También: Los 5 mayores riesgos de la IA generativa, según un experto

La compañía de Gibson está trabajando con la gran industria farmacéutica para emplear la IA en el descubrimiento de medicamentos. 

Gibson respondía a una carta publicada en marzo por Elon Musk, el académico de IA Yoshua Bengio y muchos otros, que pedía una pausa temporal en la investigación de IA para investigar los peligros. 

La petición pedía una pausa en lo que describe como “una carrera fuera de control” por la superioridad de la IA, produciendo sistemas que sus creadores no pueden “entender, predecir o controlar de manera confiable”.

Gibson se centró en lo que consideraba preocupaciones poco realistas, como el potencial de que los programas de aprendizaje automático se vuelvan conscientes, un escenario que los académicos que han considerado el asunto consideran bastante remoto. 

“No queremos hacer una pausa de seis meses o un año, debido a la gran cantidad de oportunidades que hay en el futuro”, dice Chris Gibson, cofundador y CEO de Recursion Pharmaceuticals.

“El trabajo que estamos haciendo en Recursion es súper interesante, entrenando modelos con miles de millones de parámetros que son realmente emocionantes en el contexto de la biología”, dijo Gibson a ENBLE. “Pero no son conscientes, no van a volverse conscientes, están muy lejos de eso”.

Una de las principales preocupaciones de Gibson es preservar la capacidad de su empresa y otras para avanzar en trabajos como el descubrimiento de medicamentos. Recursion, que colabora con Bayer y Genentech, entre otros, tiene actualmente cinco candidatos a medicamentos en las etapas clínicas del proceso de desarrollo de medicamentos. La compañía ha acumulado más de 13 petabytes de información en Phenomaps, su término para bases de datos de “relaciones inferidas” entre moléculas.

También: ‘OpenAI es desarrollo de productos, no investigación de IA’, dice el científico jefe de Meta, LeCun

“Los modelos que se mantienen aislados para responder preguntas muy específicas, creo, son realmente importantes para avanzar en la humanidad”, dijo Gibson.  “Modelos como los nuestros, y otras compañías como la nuestra, no queremos hacer una pausa de seis meses, ni una pausa de un año, debido a la gran cantidad de oportunidades que hay en el futuro”.

La empresa de Gibson, que es pública, anunció en julio que recibió una inversión de $50 millones de Nvidia, cuyas tarjetas gráficas dominan el procesamiento de IA.

Gibson fue mesurado en sus comentarios sobre aquellos que se preocupan por la IA o que han pedido una pausa. “Hay personas realmente inteligentes en ambos lados del debate”, dijo, señalando que un cofundador de Recursion se alejó de la dirección diaria de la empresa hace varios años debido a preocupaciones sobre los desafíos éticos de la IA.

Yoshua Bengio, asesor de Recursion, es uno de los firmantes de la carta.

“Yoshua es brillante, así que esto me está poniendo un poco en apuros”, dijo Gibson. “Pero, diría que creo que hay argumentos realmente importantes en ambos lados del debate”.

También: El gran enigma del cuerpo y las enfermedades comienza a ceder ante la IA, dice el CEO de Recursion

Las diferentes perspectivas de las partes a favor y en contra de una moratoria “sugieren cautela”, dijo, “pero no creo que debamos hacer una pausa en todo el entrenamiento y la inferencia de algoritmos de ML y IA por ningún período de tiempo”. 

El equipo de Gibson se comunicó con ENBLE para señalar que Bengio, en su publicación de blog sobre el tema de los riesgos de la IA, ha establecido distinciones entre amenazas y aplicaciones útiles para la sociedad de la IA, como la atención médica.

Gibson está de acuerdo con colegas de Bengio como el científico jefe de IA de Meta Properties, Yann LeCun, quien ha hablado en contra de la iniciativa de su amigo y a veces colaborador.

Gibson permitió que algunas nociones de riesgo, aunque improbables, deben considerarse cuidadosamente. Una de ellas son los escenarios de fin de la humanidad que han sido delineados por organizaciones como el Instituto del Futuro de la Humanidad.

“Hay personas en el campo de la IA que piensan que si le pides a un algoritmo de ML o IA que maximice alguna función de utilidad, digamos, hacer que el mundo sea lo más hermoso y pacífico posible, entonces un algoritmo de IA podría, probablemente no de manera totalmente incorrecta, interpretar que los humanos son la causa de la falta de belleza y falta de paz”, dijo Gibson.

También: ChatGPT: Lo que The New York Times y otros están entendiendo mal sobre él

Como resultado, un programa podría “implementar algo realmente aterrador”. Tal perspectiva es “probablemente descabellada”, dijo. “Pero, el impacto es tan grande que es importante pensarlo; es poco probable que cualquiera de nuestros aviones se estrelle cuando volamos, pero ciertamente prestamos atención a las advertencias porque el costo es tan alto”.

También hay “cosas realmente obvias en las que todos podríamos estar de acuerdo hoy”, dijo Gibson, como no permitir que los programas controlen armas de destrucción masiva.

“¿Abogaría por darle a un algoritmo de IA o ML acceso a nuestros sistemas de lanzamiento nuclear? Definitivamente no”, dijo.

En un nivel más prosaico, Gibson cree que los problemas de sesgo deben abordarse en los algoritmos. “Necesitamos asegurarnos de ser muy cautelosos con los conjuntos de datos y asegurarnos de que las funciones de utilidad contra las que optimizamos nuestros algoritmos no tengan algún tipo de sesgo en ellos”.

También: La IA podría tener un 20% de probabilidad de conciencia en 10 años, según el filósofo David Chalmers

“Está aumentando el sesgo en los resultados de estos algoritmos que se están volviendo cada vez más parte de nuestras vidas”, observó Gibson.

Las preocupaciones más básicas, en opinión de Gibson, deberían ser obvias para todos. “Un buen ejemplo es, creo que es más arriesgado darle a un algoritmo acceso no controlado a Internet”, dijo. “Así que podría haber algunas regulaciones a corto plazo al respecto”.

Su posición sobre la regulación, dijo, es que “parte de estar en una sociedad de alto funcionamiento es poner todas esas opciones sobre la mesa y tener una discusión importante sobre ellas. Solo tenemos que tener cuidado de no excedernos con regulaciones amplias dirigidas a toda la IA o todo el ML”.

Una preocupación apremiante para la ética de la IA es la tendencia actual de empresas como OpenAI y Google de divulgar cada vez menos los detalles internos de sus programas. Gibson dijo que está en contra de cualquier regulación que exija que los programas sean de código abierto. “Pero”, agregó, “creo que es muy importante que la mayoría de las empresas compartan parte de su trabajo de diversas maneras con la sociedad, para seguir avanzando a todos”.

También: Por qué el código abierto es esencial para calmar los temores sobre la IA, según el fundador de Stability.ai

Recursion ha compartido el código fuente de muchos de sus conjuntos de datos, señaló, y “no excluyo la posibilidad de que compartamos parte de nuestros modelos en el futuro”.

Obviamente, las grandes preguntas sobre regulación y control vuelven a la voluntad de los ciudadanos de cualquier nación en particular. Una pregunta clave es cómo se puede educar al electorado sobre la IA. A este respecto, Gibson no era optimista.

Aunque la educación es importante, dijo, “Mi creencia general es que el público parece desinteresado en ser educado en estos días”.

“Las personas interesadas en ser educadas tienden a sintonizar estas cosas”, dijo, “y la mayoría del resto del mundo no lo hace, lo cual es muy desafortunado”.