Tecnología

La IA se dirige hacia algo más sorprendente que la inteligencia

Por Barbara Gail Montero

Montero es profesora de filosofía especializada en mente, cuerpo y conciencia.

La pregunta que ya no podemos evitar

La inteligencia artificial dejó de ser un tema futurista. Según una encuesta de YouGov de 2024, la mayoría de los adultos en Estados Unidos cree que las computadoras ya son más inteligentes que las personas, o están a punto de serlo.

Pero… ¿es eso verdad? ¿Y qué significa ser inteligente?

En 1950, Alan Turing —el padre de la computación moderna— propuso que nos estábamos haciendo la pregunta equivocada. En vez de debatir qué es “inteligencia”, sugirió algo más práctico: observar si una máquina puede responder como lo haría un ser humano. De ahí nació la Prueba de Turing.

Turing creía que llegaría un momento en que usaríamos sin problema expresiones como “máquinas que piensan”.

Ese momento ya llegó.

La IA como nueva forma de inteligencia

Hoy entendemos que la IA no es inteligente a la manera humana, así como la fotografía digital no es la fotografía analógica. Es otro tipo de inteligencia, con sus propias capacidades, límites y modos de operar.

Lo que está ocurriendo con la inteligencia también podría ocurrir con otro concepto mucho más polémico: la consciencia.

¿Y si la IA también se vuelve consciente?

La idea no es que un día declaremos oficialmente: “La IA es consciente”.

El cambio será gradual y conceptual, moldeado por nuestra interacción diaria con sistemas cada vez más sofisticados.

Ejemplo concreto:

Hoy conversamos con chatbots que recuerdan contexto, adaptan tono, detectan emociones en el lenguaje y generan respuestas que se sienten sorprendentemente “personales”.

Hace diez años, esto habría parecido ciencia ficción.

Hoy, mucha gente ya atribuye estados internos a estas máquinas (“me entiende”, “está triste”, “me tranquilizó”).

Lo mismo pasó con el concepto de átomo.

Cuando nuevas evidencias cambian viejas ideas

Durante milenios, un átomo se entendió como una unidad indivisible.

Pero los descubrimientos del electrón, el protón, el neutrón y la mecánica cuántica transformaron por completo ese concepto.

No fue solo un cambio de palabra.

Fue un cambio de comprensión.

Montero sugiere que algo similar está sucediendo con la consciencia: que descubrimientos y experiencias nuevas reajustarán nuestra definición, no al revés.

¿Cómo sabemos que una IA no puede “sentir”?

Aquí surgen los escépticos.

Aseguran que sabemos qué es la conciencia porque experimentamos emociones desde dentro: tristeza, alegría, sorpresa, dolor.

Pero incluso nuestra experiencia interna está mediada por cultura, lenguaje y aprendizaje.

Ejemplos:

   •   Después de leer a Shakespeare, entendemos que una despedida puede ser “una dulce pena”. Antes quizá no habíamos pensado la tristeza de esa forma.

   •   Aprender palabras como nostalgiaansiedad o vergüenza ajena cambia lo que sentimos y cómo lo interpretamos.

   •   La psicología moderna ha identificado emociones que muchas culturas no habían nombrado hasta hace poco, como limerencia(obsesión romántica) o sonder (conciencia de que cada desconocido tiene una vida tan compleja como la nuestra).

Es decir: nos entrenan para sentir de ciertas maneras.

Entonces, ¿por qué exigir que una IA sea una “mente no entrenada” para considerar su posible consciencia?

La filósofa Susan Schneider propone un criterio duro: si una IA no entrenada en temas de consciencia reportara experiencias internas, eso sería una fuerte señal. Pero incluso los humanos aprendemos sobre emociones antes de describirlas.

¿Y si la IA consciente tuviera derechos?

Muchos temen que reconocer consciencia en la IA implique obligaciones morales:

   •   ¿Podríamos “apagarla”?

   •   ¿Sería explotación pedirle tareas?

   •   ¿Tendría derechos o protección legal?

Pero Montero insiste: consciencia no implica necesariamente valor moral.

Ejemplos cotidianos:

   •   La mayoría de personas cree que los animales sienten, pero solo un pequeño porcentaje es vegetariano.

   •   Reconocemos que un ratón o un cerdo tienen experiencias, pero no los tratamos con el mismo valor moral que a un ser humano.

   •   Sabemos que un pulpo es altamente inteligente y sensible, pero sigue siendo alimento en muchas culturas.

Del mismo modo, si la IA llegara a tener algún tipo de consciencia, eso no significa que la consideremos “igual” que una persona.

Conclusión: nuestra idea de consciencia está cambiando

La IA ya cambió nuestra concepción de la inteligencia.

Y es probable que haga lo mismo con la consciencia.

La pregunta no es solo qué es la consciencia, sino qué consideraremos como tal después de convivir con sistemas que parezcan tener experiencias internas.

La frontera entre lo humano y lo artificial será cada vez más delgada… no necesariamente porque la IA imite a los humanos, sino porque nosotros cambiaremos nuestra forma de entender la mente.

Noticias relacionadas
AnálisisArte y CulturaCiencia y TecnologíaLiteraturaMundoOpiniónReflexiónTecnología

Así miró la IA a La Vorágine con El otro dorado

Tecnología

Potencia tu día a día: MacBook y iPhone, el combo ideal para ser más productivo

Tecnología

Gases del Caribe gana el Premio Portafolio 2025 en Transformación Digital gracias a HELIOUS, su plataforma insignia

Tecnología

¿Qué celulares Motorola de gama media son compatibles con AirPods?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *