Sobrevivimos utilizando la misma estrategia de gestión de riesgos que funciona en varias otras áreas de la sociedad: la diversificación .
Hay 2 categorías de tácticas que podemos usar:
- Asegúrese de que ninguna IA esté significativamente más avanzada que todas las demás. En el nivel superior de la IA, aproximadamente en el momento de la singularidad, debería haber varios diseños competitivos. Cuantos más haya, más posibilidades tendrá de mitigar el daño si una o más IA se vuelven deshonestas. Este es el propósito detrás de la compañía de Elon Musk, OpenAI.
- Asegúrese de que la tecnología transhumanista esté suficientemente desarrollada para que los humanos sean competitivos con estas IA de primer nivel para que una mente humana probada y probada, o idealmente varias de nuevo, pueda mitigar el daño causado si la mayoría o todas las IA se vuelven deshonestas. Este es el propósito detrás de la compañía de Elon Musk, Neuralink (percibiendo un tema, pero parece ser bastante progresista cuando se trata de estas cosas: D).
También tengo que estar en desacuerdo con la respuesta de Tamara a continuación. La tecnología no aleja a las personas inherentemente, esto ha sido un efecto secundario de las redes sociales actuales que nunca tuvieron la intención de sustituir la comunicación cara a cara y, sin embargo, muchos, incluido yo, hemos caído en la trampa de usarlo de esta manera. Las tecnologías futuras, como los desarrollos posteriores en inteligencia artificial y realidad virtual, abordarán estos problemas.
- Cómo comenzar con la cosmología a nivel escolar
- Según la comprensión actual del universo, ¿es hipotéticamente físicamente (1) posible y (2) probable que tengamos, hagamos y experimentemos esta vida en este mundo repetidamente, infinitamente? ¿Por qué o por qué no?
- ¿Podemos probar otros universos fuera del nuestro?
- Si nuestro universo alcanzara un estado de máxima entropía, ¿seguiría habiendo movimiento?
- ¿Es realmente posible que la singularidad previa al big bang estuviera de moda?