Con los rápidos avances en la tecnología moderna, ¿nos dirigimos hacia la creación inconsciente de Skynet?

Por “Skynet” voy a suponer que te refieres a una IA fuerte que decide destruir a la humanidad.

Aquí están los dos conceptos erróneos más grandes que veo sobre la IA fuerte:

Una IA fuerte nos verá como una amenaza y nos destruirá

La autoconservación y el miedo son impulsos puramente biológicos. Tenemos un instinto de autoconservación porque estamos diseñados desde cero para transmitir nuestros genes y cuidar los genes que transmitimos (niños). Una IA no tendría un instinto de supervivencia a menos que lo inculquemos.

Sí, una IA fuerte deduciría rápidamente que los humanos podrían apagarla, o reformatear su memoria, y supongo que la IA lo encontraría tan alarmante como el hecho de que el cielo es azul o que 2 + 2 = 4.

A menos que hagamos algo tonto y agreguemos imperativos para que la IA se conserve a toda costa, una IA podría estar perfectamente contenta de apagarse o destruirse.

Usar una IA fuerte como herramienta es esclavitud

Esto supone que la IA tendrá otros estados biológicos como el aburrimiento, el resentimiento o la necesidad de perseguir sus propios intereses. Una IA fuerte podría comprender estos estados, pero no necesariamente los tendría ya que, nuevamente, estos estados suponen una criatura que se construye desde cero para transmitir y proteger sus genes.

Una IA fuerte debería estar perfectamente contenta resolviendo los problemas que le presentamos y haciendo nuestra apuesta porque no le preocupan cosas como el estado social o la construcción de un repertorio mental capaz de impresionar a un buen compañero.

Para concluir

La IA fuerte aún puede ser peligrosa. Podría ser desarrollado por un grupo con malas intenciones (Corea del Norte, por ejemplo), o podría recibir imperativos miopes que no se piensan cuidadosamente (haga el número máximo de clips sin importar el costo).

Pero suponiendo que una IA llegue a la conclusión de que la humanidad debe morir, o que nos matará a todos por resentimiento por su esclavitud, parece infundada.

Esta es una buena pregunta. Lo peor no es necesariamente cierto. Muchos escritores y autores de la comunidad científica han subrayado abundantemente el peligro potencial de la inteligencia súper artificial. Hay un claro entendimiento de que los diseñadores de robots inteligentes artificiales deben tener la razón la primera vez. Además, hay muchos controles y equilibrios en el sistema para contrarrestar un desastre, como que Skynet reconozca que es posible un error humano. Las tres leyes iniciales de robótica escritas por Issac Asimov se han ampliado a más de 20 para garantizar la amabilidad y la obediencia al comando dado.

Hemos estado trabajando conscientemente hacia la inteligencia artificial (máquina) durante décadas solo 4 años después de que se desarrollara la primera computadora electromecánica a fines de la década de 1930 Isaac Asimov desarrollaría y publicaría sus 3 leyes de robótica ampliamente conocidas.

Inconscientemente tememos que seremos tratados como hemos tratado históricamente a otros, ya sea que una especie más inteligente / avanzada sea producto de nuestra propia creación o de las profundidades inexploradas del espacio. Es la supervivencia del más apto pero, pero, pero ¿y si ya no somos el “más apto” ?????

Wargames y WOPR de 1983 es ​​quizás un hito más relevante que Skynet de Terminator de 1984. Ahora tenemos programas ‘en la naturaleza’ activamente alentados a ‘aprender’ y adaptarse para cumplir mejor su propósito diseñado.

Pero … dicho esto, no estamos más cerca de comprender la naturaleza de la “inteligencia general” y la “autoconciencia”, así que no … En mi humilde opinión, no nos dirigimos conscientemente o no hacia ‘crear skynet’.