Neurociencia prácticas 3

Ensayo

Sobre los chips cerebrales y el límite del Yo

Resumen:
El presente ensayo pretende abordar, como primera aproximación del autor, las implicaciones filosóficas, éticas y jurídicas que entrañan las nuevas neurotecnologías, en su diferente ámbito de aplicación. Tomando como punto de partida el reciente anuncio del empresario Elon Musk y su empresa Neuralink sobre lo que éste ha señalado como un “avance” en el desarrollo de implantes cerebrales en humanos, el autor se hace eco de diferentes aportaciones de expertos que trabajan en diversos ámbitos de la investigación científica y organizaciones supranacionales. Aportaciones que han sido recogidas en una sucesión de artículos publicados a lo largo de los últimos meses en el periódico El País.

El reciente anuncio del empresario Elon Musk, donde asegura que su empresa Neuralink ha implantado un chip cerebral a un humano, ha reavivado el debate ético sobre la investigación y desarrollo de los chips cerebrales.

Junto con la revolución de la IA a la que asistimos y, posiblemente, los avances en tecnología computacional, esta neurotecnología plantea, además de una necesaria reflexión sobre su regulación, preguntas sobre el límite de la conciencia humana.

¿Cuál es la frontera de la conciencia humana?, ¿dónde acaba el Yo y dónde empieza la máquina?, ¿un gemelo humano digital, formaría parte del individuo?, ¿hasta dónde accederán las empresas para conocer nuestros gustos y pensamientos? Y, por tanto, ¿cómo entender y aplicar los derechos humanos en estos escenarios?

Musk “ha hecho parecer el avance tecnológico y científico como un hito mercadotécnico” (Beauregard, 2024). Presenta su avance en el marco de la mejora de la condiciones de vida de la personas que han perdido capacidades fisiológicas (vista, movilidad…). Vende bien, pero nos es nada nuevo.

Por ello, el debate de fondo que se abre, a mi entender, es la relativa a la concepción misma del ser humano. Qué somos, quién somos. Un gemelo digital (o cuántico) de una persona, sobrevivirá a la muerte de ésta. De hecho, tomará decisiones durante la vida del sujeto primario. ¿Qué derechos le asistirán al ente digital? ¿Es un sujeto con entidad propia o está indefectiblemente ligado al ser humano original? ¿Acaso no hemos visto personas famosas ya fallecidas anunciando nuevas marcas de cerveza? ¿Fueron estas personas fallecidas quienes tomaron la decisión de hacerlo?

Imaginemos pues, un gemelo digital que haya compartido nuestro pensamiento, sentidos y vivencias a lo largo de una vida. Un gemelo digital que, además de atender parte de mi trabajo diario (porque también «estudió» ingeniería industrial, como yo, con la diferencia de que tiene acceso instantáneo a todo el conocimiento depositado en servidores de todo el mundo y genera ideas), ha servido para modelizar una intervención y reparación de una operación de una ruptura de mi cadera (a fin de que los médicos diseñaran la mejor intervención y tratamiento posible), además de haberse preocupado semanalmente de asistir en casa a mi madre.

¿Qué sensación producen al lector estas escenas? A mí, desde luego, miedo. Miedo por la amenaza que supone a mi integridad como ser humano y como ser social. Pavor ante la imagen de que sea mi «ávatar» quién «charle» con mi madre; curiosidad e inquietud por mi futuro laboral; determinación para volver a resituar los derechos humanos en aquello que vendrá y esperanza por ampliarlos; y acogida y apertura a los avances que permitan mejorar el bienestar de las personas y su desarrollo vital. Este conjunto de sensaciones, prejuicios o valores personales revelan la dimensión de lo que se nos plantea. Al menos a mí.

Como punto de partida, me parece importante determinar con mayor precisión las diferentes aplicaciones tecnológicas actuales, su diferente grado de invasión y el debate jurídico que presentan.

Rafael Yuste, impulsor de NeuroRights Initiative desde el Centro de Neurotecnología de la Universidad de Columbia donde ejerce de profesor, precisa la diferencia entre las BCI (Brain Computer Interfaces) invasivas y no invasivas, señalando que para las primeras, “no existe ningún tipo de preocupación, ya que están rigurosamente reguladas en el mundo y cualquier información generada se encuentra amparada por la legislación de privacidad médica (…) El problema viene con el segundo tipo, el no invasivo (como diademas o cascos), que se vende como producto electrónico común sin marco regulatorio específico” (Soufi, 2023).

Esta primera precisión nos ayuda a discernir, al menos, que el fin con la que se recaban y explotan los neurodatos sirven de criterio para abordar la reflexión de los límites de la privacidad y la conciencia humana dado que “es mucho más serio que perder la privacidad en el móvil porque el cerebro controla todo lo que somos. La neurotecnología llega a la esencia del ser humano” añade.

En este sentido, Enrique Goñi Beltrán de Garizurieta, presidente del Instituto Hermes para los derechos de la ciudadanía digital, apunta a los metaversos como “ experiencias inmersivas en las que desaparece la diferencia entre los mundos real y virtual, es relevante en el ámbito de los neuroderechos porque despliega un entorno virtual más o menos continuado en el tiempo que permite un registro masivo de información sobre la actividad cerebral de quien los utiliza y puede alterar la actividad psíquica de los usuarios” y que “la conexión entre el desarrollo de interfaces y los avances vinculados a la neurociencia supone una acción tan invasiva sobre el cerebro humano que requiere un tratamiento regulatorio específico” (Goñi, 2024).

Goñi también apunta a que de la misma manera “que la ley puede impedir que la gente venda sus órganos o se haga esclavo de otra, aun con pleno consentimiento, porque se considera que afecta la misma dignidad humana, la sociedad debe tener la legitimidad para fijar los límites del despliegue de estas tecnologías”, abriendo así el debate sobre el consentimiento y sus límites en nuestras sociedades. Debate con raíces profundas que interpelan al libre albedrío y la noción de la individualidad del ser humano.

De todos modos, esta primera aproximación clarifica un punto de partida; el debate sobre el límite del Yo requiere, al menos, dos ámbitos de reflexión: el fin con el que se recaban y explotan los neurodatos y el derecho individual frente al colectivo.

Continuando con el primer ámbito, el filósofo Carlos Blanco, defiende que “cualquier desarrollo de inteligencia artificial o poshumana debe incluir imperativamente férreos mecanismos de control” y que a pesar de las preocupaciones, se mantiene optimista sobre la aparición de una inteligencia poshumana: “si de verdad comprende de manera más profunda la realidad, probablemente no busque usar su poder para oprimir sino para crear y para construir”(Soufi, 2023).

Esta opinión sobre un fin “mayor” de la neurociencia, y no tanto utilitarista, se incardina, desde mi punto de vista, en otra corriente filosófica de progreso técnico que, en vista de la realidad (sin ir más lejos, del siglo XX y el presente), dista mucho de encontrar acomodo incuestionable en la historia de la humanidad. Puede ser por tanto, una guía, pero que no está exento de una visión más holística de lo que el ser humano es capaz de hacer con su propia capacidad.

En este sentido, Gabriela Ramos, subdirectora general de Ciencias Sociales y Humanas de la Unesco, señala que “el debate más grande de todos (…) es la dicotomía entre desarrollo y el respeto a los derechos humanos. Así, se busca garantizar que se respeten la libertad de pensamiento y la privacidad cerebral sin frenar la investigación científica que tanto puede beneficiar a la humanidad” (Brascia, 2023).

Ahondando en esta línea, Milena Costa, que lidera el grupo de derechos humanos de la ONU, indica que “las oportunidades son infinitas. Sobre todo en el ámbito médico, cuando hablamos de las aplicaciones para hacer diagnósticos y determinar tratamientos para enfermedades neurológicas” y que “lo que puede ser más problemático es la rápida comercialización de estas tecnologías que ya se encuentran disponibles en el mercado” . Costa concluye que “si tenemos un marco regulatorio sólido, transparencia y rendición de cuentas, no hay motivos para tenerle miedo a esta revolución” (Brascia, 2023).

En la misma línea, la ex-secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas declara que “hay dos aspectos que más me preocupan en este campo. Primero, creo que es importante que no cometamos el mismo error que con la inteligencia artificial, cuando nos dejamos guiar por la industria en lugar que por el mundo académico” y “en segundo lugar, se debe facilitar la accesibilidad a los beneficios potenciales de estas investigaciones, para que todos puedan aprovechar estos avances cuando se trata de salud” (Brascia, 2023).

Ligado a éste último aspecto, el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado a Elon Musk y su empresa Neurolink ante la Comisión de Bolsa y Valores de EE UU por el fallecimiento de 12 primates que fallecieron por complicaciones con los procedimientos del implante cerebral (Garrido, 2023).

Podemos concluir, por tanto, que la neurotecnología actual y su desarrollo futuro, sea invasiva o no invasiva, junto con la potencialidad de las nuevas tecnologías digitales, se adentra en un campo inédito para la humanidad, lo que, hasta ahora, parecía ser una propiedad inviolable del ser humano: ser dueño de su propia conciencia.

En consecuencia, estos avances tecnológicos requieren ser acompañados de un debate de mayor profundidad, filosófico, ético, social, político y jurídico, al que estamos llamados como ciudadanos en aras de preservar y, por qué no, ampliar los Derechos Humanos que, a pesar de los pesares, hoy, sirven de guía para abordar los retos a los que nos enfrentamos.

Referencias:

Beauregard, L.P. (2024, 30 de enero). Elon Musk asegura que su empresa Neuralink ya ha implantado un chip cerebral a un humano. El País.

Brascia, C.A. (2023, 14 de julio). “Lo que parecía ciencia ficción ya está aquí”: por qué es importante hablar (en serio) de neuroderechos. El País.

Garrido, V.M. (2023, 22 de septiembre). Un grupo de médicos denuncia la muerte de una docena de monos en los ensayos de chips cerebrales de Elon Musk. El País.

Goñi, E. (2024, 2 de febrero). Neuroderechos, la imprescindible protección del cerebro. El País.

Soufi, D. (2023, 20 de diciembre). Cerebros conectados al ordenador: ¿será el fin de nuestra capacidad de decidir?. El País.