Por “Skynet” voy a suponer que te refieres a una IA fuerte que decide destruir a la humanidad.
Aquí están los dos conceptos erróneos más grandes que veo sobre la IA fuerte:
Una IA fuerte nos verá como una amenaza y nos destruirá
- Física: ¿Qué tiene que ver esto con el campo potencial del campo magnético de la Tierra?
- ¿Los físicos experimentales alguna vez retienen sus resultados para poder formular teorías ellos mismos?
- Cómo diferenciar entre ciencia y pseudociencia
- ¿El valor local de 'g' bajo gravedad artificial sigue siendo el mismo para objetos más pesados y ligeros?
- ¿Por qué el tiempo y la masa están relacionados?
La autoconservación y el miedo son impulsos puramente biológicos. Tenemos un instinto de autoconservación porque estamos diseñados desde cero para transmitir nuestros genes y cuidar los genes que transmitimos (niños). Una IA no tendría un instinto de supervivencia a menos que lo inculquemos.
Sí, una IA fuerte deduciría rápidamente que los humanos podrían apagarla, o reformatear su memoria, y supongo que la IA lo encontraría tan alarmante como el hecho de que el cielo es azul o que 2 + 2 = 4.
A menos que hagamos algo tonto y agreguemos imperativos para que la IA se conserve a toda costa, una IA podría estar perfectamente contenta de apagarse o destruirse.
Usar una IA fuerte como herramienta es esclavitud
Esto supone que la IA tendrá otros estados biológicos como el aburrimiento, el resentimiento o la necesidad de perseguir sus propios intereses. Una IA fuerte podría comprender estos estados, pero no necesariamente los tendría ya que, nuevamente, estos estados suponen una criatura que se construye desde cero para transmitir y proteger sus genes.
Una IA fuerte debería estar perfectamente contenta resolviendo los problemas que le presentamos y haciendo nuestra apuesta porque no le preocupan cosas como el estado social o la construcción de un repertorio mental capaz de impresionar a un buen compañero.
Para concluir
La IA fuerte aún puede ser peligrosa. Podría ser desarrollado por un grupo con malas intenciones (Corea del Norte, por ejemplo), o podría recibir imperativos miopes que no se piensan cuidadosamente (haga el número máximo de clips sin importar el costo).
Pero suponiendo que una IA llegue a la conclusión de que la humanidad debe morir, o que nos matará a todos por resentimiento por su esclavitud, parece infundada.