Filosofía de la mente: ¿Podría existir una máquina de pensar (pensar) sin ninguna entrada externa (sentidos)?

Creo que tienes razón. No importa si es una máquina o una criatura viviente. Sin entradas, no tiene forma de recopilar información sobre su entorno. Sin información sobre el medio ambiente, no puede reaccionar o cambiar su situación y, por lo tanto, no podrá aprender a protegerse contra la depredación. No sobrevivirá.

Para pensar, necesita recopilar información sobre cosas, y ser capaz de conceptualizar esa información, y poder elegir actuar en respuesta a esa información.

Es difícil imaginar cómo podría ocurrir pensar en ausencia de interacción con el entorno. ¿Cuál sería el punto? No habría información sin interacción (recopilación de datos). No hay información y no hay símbolos o ideas para manipular y, por lo tanto, no es posible pensar.

Debo decir que creo que el pensamiento debe incluir la manipulación de símbolos, o al menos la aparición de la manipulación de símbolos, típicamente indicada por un intento de comunicarse con otro pensador. Esto requiere interacción con otra entidad, que también suele ser del mismo tipo que la primera. De hecho, sospecho que probablemente deba haber muchísimas entidades similares para que surja el pensamiento.

Steven hace un buen punto. Mi propia entrada sería:

La idea detrás de cualquier inteligencia artificial hasta ahora radica en la hipótesis de que cualquier calidad puede tener su cantidad equivalente. En otras palabras: podemos describir cualquier cosa que podamos pensar en el lenguaje de las matemáticas (o cualquier otro lenguaje utilizado en la programación, quizás esto se ampliará más allá de las matemáticas con el tiempo). La verdadera pregunta es: ¿podemos? La matemática trata con la sintaxis, no con la semántica. La semántica permanece afuera después de la traducción a las matemáticas. Entonces, AI puede tener las fórmulas correctas y sus cálculos nos satisfarán , después de haber aplicado la semántica a lo que ha producido la sintaxis matemática; pero por sí mismo no puede tener idea de a qué se refieren esas fórmulas, a los conceptos semánticos … Entonces, ¿cómo les proporcionamos IA? En otras palabras, puede tener un concepto de dimensionalidad (¡buen ejemplo!) Como datos matemáticos y usarlo correctamente en el cálculo, pero ¿es realmente un concepto de dimensionalidad tal como lo entendemos? Un concepto en contexto matemático: ¿es igual a un concepto en lenguaje natural? Mientras seamos nosotros, y no la IA, quienes hacemos la traducción de la sintaxis semántica, no se puede hablar de autoconciencia sobre la IA ‘fuerte’.

Dado que la máquina tiene algún tipo de conciencia de sí misma, puede ser capaz de desarrollar algún tipo de pensamiento, porque puede hacer preguntas sobre sí misma. Pero no creo que sea capaz de desarrollar un pensamiento complejo sin capacidad de recopilar datos externos, debido a las razones expuestas en las otras respuestas.

Creo que la conciencia y la sensación son, en última instancia, la misma cosa, así que no, no hay forma de que algo pueda pensar sin haber experimentado algo en lo que pensar.