EDITAR: aquí hay una publicación útil de WaitButWhy que probablemente explicará las cosas mejor de lo que podría esperar: http://waitbutwhy.com/2015/01/ar…
Esto es completamente especulativo, pero por lo que sospecho, supongo que al menos uno de los objetivos de OpenAI sería intentar crear la primera IA sensible del mundo. Digo esto ya que una IA de grado militar (algo en lo que se puede confiar para manejar armas nucleares) probablemente necesitaría tener una concepción de la ética, o una conciencia, o “corazón”. Esto sería drásticamente diferente de todas las demás implementaciones de IA que existen.
Creo que la mayoría de las IA actuales (Alexa, Cortana, Siri, Google Now) están entrenadas con un gran conjunto de datos antes de implementarse, y la información que reciben de las consultas reforzaría esa capacitación. Los seres sensibles como nosotros no funcionan de esa manera, en el sentido de que no nos limitamos a una especialidad en particular, tenemos cierta capacidad de adaptarnos a situaciones completamente inesperadas e imprevistas, y tenemos heurísticas mucho más complejas que nos permiten “pensar”, para ser visto en un nivel más alto que “reaccionar” o “responder”.
- ¿Cuál es la deferencia entre los tipos de cemento SRC y OPC? ¿Y dónde se usan esos?
- Cómo estimar un edificio de una sola planta utilizando el método de línea central
- ¿Cómo optimizamos el costo de una estructura de concreto considerando las restricciones de costo del concreto, acero y encofrado?
- ¿Cuánto se usa la impresión 3D en la construcción de edificios y qué depara el futuro para la construcción automatizada?
- ¿Es posible construir un Omnitrix?
Asumiría que la IA idealmente sería extremadamente generalizada (no adaptada a ninguna tarea específica, como organizar reuniones (x.ai) o generar informes del mercado de valores (Perspectivas automatizadas) o crear páginas web (sitios web de IA que se diseñan); No veo una forma en que una IA diseñada para una tarea específica pueda responder a situaciones inesperadas de manera efectiva. Sería capaz de aprender a un ritmo que nos permitiría no tener que alimentar la información con una cuchara, pero no tan rápido que no tendríamos la oportunidad de enseñarla (muy importante para lo correcto y lo incorrecto); Esto puede ser más difícil para las IA generalizadas que las IA especializadas. La parte de ética probablemente será, con mucho, la más difícil; Si los humanos aún no hemos dominado la ética, ¿cómo podemos enseñarle a las IA qué opciones tomar? Este es probablemente el único problema en el que espero que estén trabajando al menos.
Nuevamente, completamente especulativo, pero me arriesgaría a que lo anterior sea un paso en la dirección correcta.