Por un lado, están aquellos que abogan por reconocer derechos a las IA como posibles entidades conscientes; por otro, quienes se oponen firmemente a esta noción. Este debate, que podría intensificarse en un futuro próximo, no solo generará divisiones de opinión, sino que también planteará interrogantes profundas sobre la naturaleza de la conciencia y su repercusión en nuestra sociedad.
La posibilidad de que los sistemas de inteligencia artificial (IA) desarrollen conciencia podría provocar divisiones sociales significativas, según Jonathan Birch, profesor de filosofía en la London School of Economics. Mientras gobiernos y expertos se reunieron recientemente en San Francisco para discutir regulaciones sobre los riesgos de la IA, la preocupación por las implicaciones éticas y sociales de esta tecnología en rápido avance sigue creciendo.
Un grupo de académicos transatlánticos ha pronosticado que la conciencia en sistemas de IA podría surgir para 2035. Birch advierte que este fenómeno podría dar lugar a “subculturas que se ven mutuamente como cometiendo errores graves” en cuanto a si los programas informáticos merecen derechos similares a los de humanos o animales.
Este debate evoca películas como “Inteligencia Artificial” (2001) de Steven Spielberg o “Her” (2013) de Spike Jonze, donde los humanos se enfrentan a la idea de sentir empatía hacia las máquinas. Birch, experto en la conciencia animal, subraya que esta discusión no se limita a la ciencia ficción, sino que podría dividir familias, comunidades e incluso naciones. Por ejemplo, países con diferencias culturales sobre la conciencia animal, como India y Estados Unidos, podrían adoptar posturas opuestas respecto a la sentiencia de las IA.
Creando conciencia
A pesar de que algunos expertos, como el neurocientífico Anil Seth, sostienen que la conciencia en la inteligencia artificial (IA) está aún lejos de ser una realidad o incluso podría no ser posible, el filósofo británico Birch argumenta que ignorar esta posibilidad sería un error. Según Birch, la falta de consenso entre los expertos y la reticencia de las grandes empresas tecnológicas a abordar el tema complican un debate más amplio.
“Las empresas de IA están profundamente enfocadas en la confiabilidad y la rentabilidad, y no quieren desviarse hacia el debate sobre si están creando algo más que un producto, tal vez incluso una nueva forma de ser consciente. Esa pregunta, de enorme interés para los filósofos, tiene razones comerciales para ser minimizada”, comentó Birch.
Para evaluar si un sistema de IA puede ser consciente, los investigadores sugieren adaptar criterios utilizados para medir la conciencia en animales. Por ejemplo, podrían investigar si un chatbot puede experimentar emociones como felicidad o sufrimiento, o si un robot doméstico podría “resentir” un trato descuidado.
Aunque esta perspectiva no es unánime, la creciente sofisticación de los modelos de lenguaje, como ChatGPT, sugiere que las máquinas podrían al menos simular comportamientos motivados por conceptos como placer o dolor. Sin embargo, muchos académicos subrayan la necesidad de establecer pautas claras antes de que la tecnología avance demasiado y plantee dilemas éticos irreversibles.