
Ante la llegada de neurotecnologías que prometen ayudar contra la depresión o implantar chips en el cerebro para conectarlos a computadoras, hay que ser conscientes de la necesidad de proteger nuestros datos biométricos (que incluyen las ondas cerebrales) para evitar su uso indebido.
Así lo sugirió la académica de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) de la UNAM, Anahiby Becerril Gil, quien precisó:Cada vez más se ha normalizado la entrega de la identificación del rostro, voz, iris y huella digital al usar los llamados equipos inteligentes (celulares, relojes, tabletas, audífonos), sin cuestionar a quién se envía, para qué se utiliza, cuánto tiempo los conservarán o cuáles son los fines.
Al ofrecer la conferencia “Del dato al cerebro: privacidad y seguridad en un mundo conectado”, la coordinadora académica del Diplomado Ciberseguridad manifestó que, desde hace tiempo, este último tema ha rebasado el campo técnico y ahora implica la protección de los derechos humanos.
A decir de la especialista, la gente debe dejar de pensar que es normal otorgarlos. La ley nos protege, la tecnología debe servirnos a nosotros y no al revés. Por ejemplo, si los bancos niegan la atención obligando a sus clientes a descargar una aplicación y usar datos biométricos, la persona puede ampararse en la legislación y exigir se le otorgue identificándose oficialmente.
Becerril Gil expresó: Necesitamos anticiparnos a los riesgos, las neurotecnologías ya vienen, principalmente para usos médicos, pero se piensa en lúdicos con videojuegos. Lo anterior conlleva educarnos en materia de riesgos personales, resguardar la información biométrica, a quién se la comparto, por qué hacerlo, de lo contrario probablemente pueda generar problemas.
En el encuentro realizado a distancia como parte del Seminario TIC, de la DGTIC, la experta en garantías fundamentales mencionó que el resguardo de neurodatos no es hablar del futuro, es una urgencia del mundo actual, más allá de likes en las redes sociales.
Aclaró que las neurotecnologías se refieren a dispositivos o procedimientos que ayudan a acceder a nuestra información mental y del sistema nervioso para controlar, investigar, evaluar y/o manipular la estructura y función de los sistemas neuronales de animales o seres humanos. Se crearon con el objetivo de ayudar ante padecimientos o enfermedades mentales.
Los casos famosos son las empresas Neuralink (Estados Unidos) que desarrolla chips llamados Link para monitorear y estimular la actividad cerebral, así como Flow Neuroscience (Suecia) con su diadema Flow que promete incentivar regiones de este órgano para apoyar a aliviar los síntomas de la depresión.
Si se dice que los datos personales son el nuevo petróleo, los neurodatos serán el oro digital, porque con ellos se elaboran perfiles de usuario a los cuales carecemos de acceso; no es que sea malo, el problema es que tampoco sabemos si nos beneficia o perjudica, resaltó Becerril Gil.
Y recordó: en el caso de México, el artículo 16 de la Constitución determina que toda persona tiene derecho a la protección de sus datos personales y esto implica cualquier información, sin importar su formato (físico o digital); se hace distinción de los sensibles, los cuales se refieren a la intimidad.
Si de la actividad cerebral una compañía obtiene referencias que me hacen identificable, es un dato personal sensible, como es el caso de los biométricos. Tienen esa categoría porque se refieren a propiedades físicas, fisiológicas (cara, voz, iris, huella digital, información de ADN y datos neuronales), de comportamiento, o rasgos de la personalidad.
Esto ha llevado al surgimiento de una nueva tendencia impulsada por la Organización de las Naciones Unidas para la custodia de la neuroinformación, donde la educación en ciberseguridad es un elemento clave, destacó la investigadora.IA AUTORA.
Por otra parte, durante el encuentro AI Summit 2025, la investigadora del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM, Helena Gómez Adorno, explicó que en la actualidad resulta difícil identificar qué texto fue escrito por inteligencia artificial (IA) o por un humano, antes había análisis de autoría; cuando escribimos tenemos “huellas de estilo”, como el uso de comas, signos de puntuación o elecciones léxicas, es decir, palabras que empleamos.
Desde hace tiempo ha habido métodos de atribución de autoría o análisis de estilo de escritura basados en estilometría y, posteriormente, en técnicas como machine learning o deep learning: no obstante, varias de ellas hoy en día ya no funcionan.La experta participó en la reunión organizada por el IIMAS y las empresas OpenAI y Fintual, en la cual se abordó el tema Retos en la autoría de contenidos generados por IA.
En el ámbito académico, abundó, hay preocupación en torno al uso de este tipo de tecnología para generar textos, queremos saber si esto favorece o no el pensamiento crítico, qué desafíos puede tener en la educación y otras problemáticas relacionadas con la evaluación y mitigación de contenido generado por IA.
Para identificar escritos creados por esa herramienta se entrena un modelo de clasificación: se extraen las características de estilo para conocer ciertos patrones lingüísticos.“Pero cada vez que OpenAI lanza un nuevo modelo tiene un estilo diferente y los patrones anteriores ya no funcionan, y hay que volver a hacer el entrenamiento. Por eso es difícil mantener un modelo actualizado y que pueda identificar cualquier IA”, puntualizó.
De acuerdo con Gómez Adorno, para enfrentar ese fenómeno no hay una sola solución sino numerosos enfoques. Lo que se requiere es que a partir de edades tempranas se inculque el empleo de estos modelos del lenguaje desde el punto de vista ético y pedagógico, sin que ello afecte a la enseñanza y los procesos cognitivos, y para formar profesionales y humanos funcionales en la sociedad.