Digital | Protección de datos

Neurotecnología y protección de datos

20/04/22

1. ¿Qué es la neurotecnología?

 

La neurotecnología, según el Comité de Bioética de la UNESCO, es la disciplina que utiliza una serie de dispositivos y procesos para el acceso, investigación, monitorización y manipulación de los sistemas neuronales de animales o de personas. Esta herramienta, grosso modo, puede llegar a analizar las señales químicas y eléctricas emitidas por el cerebro o interactuar con el sistema nervioso para cambiar su actividad.

Los avances experimentados con el uso de la inteligencia artificial, la computación o la ingeniería de la salud han potenciado el diseño y la atracción por comercializar estos dispositivos no sólo en la industria sanitaria, sino también en el ámbito del comercio electrónico, el neurogaming, las herramientas de marketing o los estudios de mercado.

 

2. Neurotecnología y datos personales

 

La Carta de Derechos Digitales establece que la libertad de empresa reconocida en la Constitución Española también ha de ser aplicable a los entornos digitales. Ello supone garantizar la defensa de la competencia, la evasión de posiciones de domino o la promoción de medidas que fomenten la realización de pruebas controladas para crear nuevos espacios de negocio.

Al mismo tiempo, el apartado XXVI de la referida Carta recoge que el empleo de la neurotecnología podrá ser regulada por una ley con el objetivo de que las personas puedan tener el control de su propia identidad y autodeterminación individual, procurando la confidencialidad y la seguridad de los datos procedentes de procesos cerebrales, así como garantizando que las decisiones obtenidas a través de neurotecnologías no estén condicionadas por datos, programas o informaciones incompletas o sesgadas.

En lo que atañe a la necesidad de garantizar la seguridad de los datos, ha de tenerse en cuenta que el Reglamento General de Protección de Datos (RGPD) regula −en su artículo 25− la protección de datos desde el diseño como uno de los principios de obligado cumplimiento. Ello implica que, desde que el dispositivo se encuentre en su fase de creación, debe entrar a valorarse los riesgos y la gravedad que supondría el uso de los mismos sobre los derechos y libertades de las personas, estableciendo las medidas y técnicas necesarias para garantizar los principios de protección de datos. De hecho, en cuanto a los datos personales que guardan conexión con aspectos vinculados con la salud de las personas, el RGPD concede un especial tratamiento, ostentando la condición de categorías especiales de datos, tal y como preceptúa su artículo 9.

Al mismo tiempo, la propuesta de Reglamento sobre Inteligencia Artificial también contempla la obligación de aplicar medidas de gestión y control cuando los dispositivos utilizados sean de alto riesgo [1] para proteger, entre otros aspectos, la privacidad de las personas.

 

3. Datos cerebrales o neuronales

 

El interés por estas herramientas junto con la incertidumbre sobre cómo proteger la libertad de pensamiento de las personas ha supuesto que Organizaciones Internacionales de ámbito universal y regional [3] analicen la viabilidad de proceder a la creación de nuevos derechos humanos, conocidos como “neuroderechos”.

En diciembre de 2021 el Comité de Bioética de la UNESCO, emitió un informe sobre las cuestiones éticas y jurídicas de la neurotecnología. En el mismo, se plantea, entre otras cuestiones, si debieran ser considerados los datos neuronales como datos personales. El razonamiento planteado determina que si esos datos revelan los procesos mentales de un individuo y las personas estamos definidas por nuestro cerebro, los datos neuronales han de ser considerados el origen del “yo” y por ello necesitarían una definición especial.

Los datos cerebrales o neuronales, según el citado informe, incluirían información sobre sobre la estructura cerebral y neuronal, lo que podría llegar a impactar en la libertad de opinión y de pensamiento, mermando la privacidad mental de los sujetos. En este caso, el Comité augura que el consentimiento informado podría entrañar un objeto de controversia, puesto que el mismo tiene su sustento en la capacidad de las personas para tomar decisiones de forma libre. Sin embargo, se plantea la cuestión de en qué medida la neurotecnología puede influir en nuestra propia capacidad de consentir, pues esta herramienta podría llegar a rebasar el umbral de conciencia de las personas.

Por otro lado, refiere que la información sobre el tratamiento de los datos podría resultar incompleta, ya que sería complejo precisar qué información se va a recoger y cuántos datos se van a utilizar, planteándose dudas sobre si los métodos usuales de recogida y tratamiento de datos personales serían adecuados o se requeriría la regulación de nuevas formas de tratamiento para estos datos extremadamente sensibles.

 

4. Buenas prácticas

 

El informe dispone que las empresas privadas y startups deberán apoyarse en códigos de buenas prácticas y en la ética para hacer un uso responsable de la neurotecnología, especialmente en el ámbito de la medicina, focalizando el control en la comercialización del dispositivo, así como en otros aspectos a resaltar como los siguientes:

  1. La vigilancia posterior y periódica que los fabricantes de los dispositivos neurotecnológicos han de llevar a cabo.
  2. Reforzar la responsabilidad de fabricantes, importadores y otras personas involucradas en los procesos de marketing.
  3. Procurar la remisión de información clara y comprensible sobre la herramienta.

 

5. Conclusiones

 

En resumidas cuentas, la neurotecnología es un campo sumamente complejo que suscita el planteamiento de un extenso debate respecto a su regulación. Hablamos de un ámbito muy novedoso, que puede llegar a ostentar múltiples ventajas para la calidad de vida de las personas, pero también se identifican lagunas jurídicas que requieren ser abordadas para determinar, entre otros aspectos, si la normativa sobre protección de datos y la propuesta de Reglamento sobre Inteligencia Artificial pueden dar cobertura al tratamiento de estos datos neuronales o, si bien, será necesario plantear una regulación más específica para la materia. A la par, los sectores públicos y privados necesitarán conocer, con mayor precisión, qué medidas y responsabilidades deben asumir ante el diseño y comercialización de estos dispositivos.

 

[1] Un sistema de Inteligencia Artificial, de conformidad con el Reglamento, tendría la condición de alto riesgo cuando el sector en el que sea empleado posea un riesgo significativo o que el dispositivo en sí mismo posea un riesgo significativo cuando se haga uso del mismo. Véase en COMISIÓN EUROPEA, “Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión. COM (2021) 206 final”, en eur-lex.europa.eu (21 de abril de 2021), disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52021PC0206.

[2] Define la propuesta de Reglamento en su artículo 3 apartado 36 como sistema de identificación biométrica remota: un sistema de IA destinado a identificar a personas físicas a distancia comparando sus datos biométricos con los que figuran en una base de datos de referencia, y sin que el usuario del sistema de IA sepa de antemano si la persona en cuestión se encontrará en dicha base de datos y podrá ser identificada.

[3] COMITÉ INTERNACIONAL DE BIOÉTICA DE LA UNESCO., “Report of the International Bioethics Committee of UNESCO (IBC) on the ethical issues of neurotecnology”. UNESCO Biblioteca Digital. París, 15 de diciembre de 2021. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000378724 (última consulta el 9 de abril de 2022); COMITÉ JURÍDICO INTERAMERICANO, “Declaración del Comité Jurídicos Interamericano sobre neurociencia, neurotecnologías y derechos humanos: nuevos desafíos jurídicos para las Américas, CJI/DEC (XCIX-O/21), 99º Periodo ordinario de Sesiones, 2021.