IslaS, 67 (211): e1598; mayo-agosto, 2025.
Recepción: 06/03/2025 Aceptación: 11/06/2025
Artículo científico
_________________________________________________
Emilia María Santana Ramos
Universidad de Las Palmas de Gran Canaria, Las Palmas, España
ORCID: https://orcid.org/0000-0002-7390-4065
Correo electrónico: emilia.santana@ulpgc.es
RESUMEN
Introducción: El presente trabajo analiza cómo determinados sistemas algorítmicos afectan la construcción de la identidad personal y a la autonomía en los entornos digitales. Se adopta un enfoque filosófico y jurídico, con atención a ejemplos recientes de impacto práctico.
Métodos: El trabajo adopta una metodología cualitativa basada en el análisis crítico de literatura especializada y el estudio de casos que ilustran el efecto de tecnologías como los algoritmos de recomendación, el reconocimiento facial y los sistemas de puntuación social.
Resultados: El análisis muestra que los sistemas algorítmicos condicionan la visibilidad y la validación de las identidades digitales, amplifican sesgos preexistentes y limitan la autonomía crítica de los sujetos en el espacio digital.
Conclusiones: Se propone avanzar hacia marcos normativos que garanticen la transparencia, la inteligibilidad y la verificabilidad de los sistemas algorítmicos, integrando un enfoque comparado y principios éticos que aseguren la protección efectiva de la identidad personal.
PALABRAS CLAVE: identidad digital; autonomía personal; inteligencia artificial; vigilancia algorítmica; desigualdad digital
ABSTRACT
Introduction: This paper analyzes how certain algorithmic systems affect the construction of personal identity and autonomy in digital environments. A philosophical and legal approach is adopted, with attention to recent examples of practical impact.
Methods: The study employs a qualitative methodology based on critical analysis of specialized literature and case studies that illustrate the effects of technologies such as recommendation algorithms, facial recognition, and social scoring systems.
Results: The analysis shows that algorithmic systems condition the visibility and validation of digital identities, amplify pre-existing biases, and limit the critical autonomy of individuals in the digital space.
Conclusions: The paper proposes moving toward regulatory frameworks that ensure the transparency, intelligibility, and verifiability of algorithmic systems, integrating a comparative approach and ethical principles to ensure the effective protection of personal identity.
KEYWORDS: digital identity; personal autonomy; artificial intelligence; algorithmic surveillance; digital inequality
Concepción y/o diseño de investigación:
|
Adquisición de datos:
|
|---|---|
Análisis e interpretación de datos:
|
Escritura y/o revisión del artículo:
|
Una necesidad inherente al ser humano es, precisamente, clasificar y ordenar el mundo en categorías. Eso permite interpretar de la mejor manera la adaptación al constructo social en el que desarrolla su existencia vital.
Así, diferenciar, examinar, distinguir e individualizar no son meros actos cognitivos que se producen de forma aislada; más bien, una acción que da respuesta al entorno que rodea al sujeto. Este análisis no es superficial, pues es lo que posibilita a una persona tomar decisiones autónomas en base a un presupuesto de discernimiento para garantizar los riesgos de sus acciones. A través de la valoración de riesgos, un individuo puede identificar el modo en que debe ajustar su conducta y definir normas de convivencia. Sin estos procesos, la interacción sería caótica y la construcción de estructuras sociales resultaría impensable sin la confianza y la previsibilidad en la conducta de los demás, por lo que la capacidad de identificar al otro, ya sea como un aliado o como una amenaza, se convierte en una exigencia en cualquier constructo social (González Granado, 2022, p. 218).
Siguiendo la teoría de Hegel, Infante defiende que la identidad no deja de ser más que el resultado de una dialéctica donde la autoconciencia se identifica a través del reconocimiento mutuo con el otro (Infante del Rosal, 2014, p. 229). En este marco filosófico, la identidad se ha concebido como un proceso dinámico basado en la interacción con los demás. Sin embargo, con la irrupción del entorno digital, este proceso se transforma y adquiere nuevas dimensiones. Surge así el concepto del yo digital, que no solo refleja quiénes somos en el espacio virtual, sino que también de la manera en que somos percibidos y validados por los sistemas tecnológicos y los algoritmos. Este yo digital no es estático ni plenamente autónomo, sino que está influenciado por dinámicas de visibilidad, datos almacenados y decisiones automatizadas que afectan la construcción de la subjetividad.
En este sentido, la identidad personal como derecho no puede ser concebida exclusivamente desde una cualidad que deba reconocerse jurídicamente, puesto que, si su objetivo es la construcción en la organización social, debe reconocerse, por tanto, como un principio rector. En la línea, De Asís se pronuncia diciendo que «todo el discurso de los derechos, desde la modernidad, se ha apoyado en tres grandes presupuestos, uno de los cuales está presidido por la idea de la identidad» (De Asís Roig, 2023, p. 252). Por ello, la misma se puede representar como cualquier otro derecho; como un derecho de carácter limitado o relativo que habrá de ceder en la intensidad de su realización cuando entra en colisión con las exigencias que plantea el ejercicio de los derechos de los demás miembros del grupo social.
Siguiendo esta lógica, el ser humano no puede ser reconocido como un ente aislado, sino como parte de un entramado relacional en el que la identidad personal no se construye en vacío ni surge por generación espontánea. Se desarrolla a través de las relaciones personales y que se redefine cuando se produce una relación con lo que resulta diferente (Infante del Rosal, 2014, p. 230). Esta idea responde a la dialéctica del reconocimiento1 defendida por Hegel, donde la autoconciencia solo se forma en la interacción con otra autoconciencia. Es decir, no podemos reconocernos como yo sin la presencia de un tú o un ellos que permita diferenciarnos o identificarnos. Así lo defiende Álvarez, reconociendo la identidad como «el conjunto de atributos y características que permiten individualizar a la persona en sociedad» (Álvarez, 2016, p. 113).
Se podría, por tanto, reconocer que la dialéctica de la sociedad civil conduce a la formación de una autoconciencia universal o racional. A través de ella, el sujeto, lejos de actuar en función de sus propios intereses, lo hace atendiendo a una serie de principios universales en la toma de sus decisiones. De esta manera, una persona podrá sentirse un ser libre con capacidad de autodeterminación. Desde este parecer, la sociedad civil, por sí sola, no podrá garantizar la plena realización de esta racionalidad universal. Para ello, es necesario que su estructura garantice el reconocimiento de la participación de los ciudadanos. Solo así se podría estar presente ante un orden político y social estable (De la Vega de Orduña, 2020, p. 35).
Resulta desconcertante cómo la identidad no ha sido considerada en los ordenamientos jurídicos con la relevancia que lleva implícita. Se quiere decir con ello que, con independencia de su consideración en la Teoría General del Derecho, dentro de los sistemas jurídicos no se ha desarrollado un marco teórico y normativo que permita identificarla como eje central. Prueba de ello es, precisamente, que la misma, en no pocas ocasiones, se queda circunscrita al ámbito administrativo, vinculada casi exclusivamente a documentos de identificación y registros civiles. Y, la realidad es que, de poco serviría garantizar la autenticidad de un acto jurídico si no se puede verificar la identidad de quien lo ejecuta. La necesidad de identificar la identidad personal se hace más explícita cuando se evidencia cómo los avances y fenomenologías sociales obligan a reconocer a la misma como el pilar que sustenta el reconocimiento y ejercicio de los derechos. Delitos como la sustracción de menores, el robo o manipulación de la identidad digital, etc., obligan a implementar un marco normativo que salvaguarde el respeto a la identidad.
Debe reconocerse que la identidad no es estática ni tampoco cuenta con un concepto unívoco. Desde una perspectiva meramente ética y filosófica, la identidad es un valor en la medida en que está vinculada a la dignidad humana y a la autonomía individual y, por ende, al pleno desarrollo de la personalidad. La importancia que cobra el postulado del libre desarrollo de la personalidad es, precisamente, en que esta se presenta como
una manifestación directa de la libertad y autonomía personal. Desde una visión social, todos los individuos no comparten las mismas metas u objetivos de vida y ello obliga al establecimiento de reglas que garanticen la convivencia pacífica. (Santana Ramos, 2023, p. 26)
Precisamente, su consideración debería partir de su reconocimiento como derecho subjetivo; es decir, como poder o facultad que tiene una persona para actuar lícitamente en un determinado contexto (Díez-Picazo y Ponce de León, 1989, p. 337).
Por lo tanto, si el objetivo que se pretende es garantizar la salvaguarda de los derechos, no se puede, de ningún modo, mantener en el ideario normativo a la identidad con una visión instrumental. Al contrario, se debe abordar como la piedra angular que salvaguarda la dignidad y la autonomía personal. Pues, desde luego, la identidad se presenta como un elemento transversal que posibilita el ejercicio de otros derechos fundamentales. Este enfoque debe aplicarse a la identidad personal, entendida no solo como un derecho a existir en términos formales, sino como la garantía de que cada persona pueda definir y ejercer su identidad sin restricciones impuestas. En esta línea, «todos estamos obligados a respetar la dignidad del prójimo, incluso el Estado, que además de respetarla, está obligado a protegerla» (Miranda Gonçalves, 2020, p. 150). Es por ello que, el reconocimiento de la identidad como derecho lleva implícito garantizar el pleno y libre desarrollo de la personalidad pudiendo definir y expresar quién quiere ser, sin temor a ser excluido o discriminado. En última instancia, proteger la identidad es garantizar la posibilidad de existencia plena en la sociedad, asegurando que cada individuo tenga voz y reconocimiento en el entramado social y jurídico en el que se inscribe.
El modelo español reconoce el derecho a la identidad y el derecho al libre desarrollo de la personalidad como soporte de la dignidad personal2. Este vínculo impide reconocer la identidad de manera unitaria pues, a través de ella, una persona adquiere el reconocimiento del Estado garantizando el ejercicio de la autonomía y ejercicio de su libre y pleno derecho personal.
Ahora bien, es necesario, en este punto, advertir que la identidad no debe ser entendida desde una visión reduccionista que simplifica a la misma como un simple vínculo con el Estado, como tampoco debe quedar constreñida a un reconocimiento administrativo o registral. Con ello, no queremos obviar el papel que asume en relación con la filiación, la nacionalidad o incluso el nombre, permitiendo identificar legalmente a una persona. Así lo defiende Gete cuando afirma que
[…] el ejercicio del derecho a la identidad se manifiesta en distintos ámbitos, desde el reconocimiento de un nombre y apellidos, pasando por las acciones para averiguar los orígenes propios, hasta la admisión, respeto y protección en la fijación de las condiciones personales de cada ser y la presentación de los mismos. (Gete Alonso, 2017, p. 664)
En este sentido, el Tribunal Constitucional español, en sentencias como la 67/2022 (Tribunal Constitucional de España, 2022), advierte que la identidad no es solo un dato oficial, sino también un proceso subjetivo por el que una persona puede reconocerse a sí misma, y es reconocida por los demás. El corpus jurídico de la sentencia advierte que la identidad sexual y de género, con independencia de lo que pueda constar en un documento legal, estará determinada por la percepción que cada persona tiene de sí misma, y por la forma en que desea expresarse ante la sociedad.
Desde luego, esta concepción rompe con la idea tradicional que reconocía a la identidad como un vínculo entre una persona y el Estado, reconociendo el valor que lleva implícito el postulado del libre desarrollo de la personalidad. De esta manera, se garantiza que cada persona podrá vivir conforme a la identidad que desee sin limitaciones externas. Este hecho evidencia la responsabilidad que tiene el derecho en adaptarse a la evolución de la realidad. De esta forma, podrá estar garantizado, no solo el reconocimiento de la identidad, sino también, la autodeterminación para ejercer los derechos que les resultan propios a cada persona.
La especial consideración que asume el postulado del libre desarrollo de la personalidad en relación con la autonomía de la voluntad personal se podría insertar bajo el paraguas que reconoce que ambas se configuran como cara y cruz de la misma moneda. La libertad como derecho fundamental encuentra su validez en su reconocimiento dentro de las diferentes órbitas jurídicas. Sin embargo, su fundamento último no solo radica en su positivización, sino en su arraigo en la moral y en los derechos naturales inherentes a la persona. Desde esta perspectiva, la autonomía, aunque no siempre sea proclamada explícitamente como un derecho sustantivo, se postula como la brújula por la que se articulan otros derechos. Se quiere decir con ello que, en el hecho de no contar con un reconocimiento explícito, de ningún modo debe de olvidarse su valor inherente al ser humano, como tampoco su respaldo en la protección propia de un derecho fundamental; pues «la autonomía es el presupuesto para actuar, para elegir, lo que nos hace personas, porque estamos programados en cuanto seres, pero no en cuanto humanos» (Rovira Viñas, 2006, p. 12). Con esta perspectiva, la identidad debe venir respaldada desde un marco normativo que posibilite a los sujetos ejercer su libertad. Por lo que la identidad como derecho «implica las características y rasgos que le son propios al individuo y que, además, sirven de elementos para diferenciarlo del resto, ya sea del orden físico, biológico, social o jurídico» (López Serna et al., 2018, p. 68).
En la línea, la libertad de acción del individuo vendrá determinada en función del orden constitucional y el reconocimiento que tenga previsto en cuanto a las garantías sobre la misma. Pues, lógicamente, la consideración de los derechos que no están expresamente nominados, como es el que resulta de la autonomía y la libertad de acción, inciden en el reconocimiento del derecho al libre desarrollo de la personalidad. Señala Barranco Avilés que, desde una visión amplia, habría que entender los derechos en relación a los fines que persigue (Barranco Avilés, 2000, p. 61). Solo de esta manera se podría reducir las posibles interpretaciones que derivan de los derechos no enumerados como derechos fundamentales. Así parece entenderlo Prieto Sanchís, cuando reconoce que «decidir qué rasgos debe tener una pretensión para hacerse merecedora del calificativo de derecho humano o fundamental […] no es un problema teórico o conceptual, sino ideológico o de fundamentación» (Prieto Sanchís, 2002, p. 41).
A la hora del reconocimiento jurídico del libre desarrollo de la personalidad se deben tener en cuenta los factores sociales, económicos o culturales que pueden, y, de hecho, influyen en la autonomía individual. Con base en este planteamiento, hay que advertir que la consideración sobre la libre voluntad personal no depende exclusivamente en si el Estado ofrece o no garantías para el efectivo ejercicio. Por ello, hay que tener en cuenta los posibles factores extrajurídicos como: los condicionamientos sociales, culturales, económicos o de cualquier índole, que van a incidir en la capacidad de cada persona para determinar sus propias decisiones sin interferencias indebidas.
Se pronuncia Ara Pinilla sobre el deber general de solidaridad, donde pone de manifiesto la necesidad de minimizar la influencia de los condicionamientos que puedan limitar la verdadera autonomía individual. Su postura es clara cuando reconoce que una sociedad comprometida con la libertad de sus ciudadanos no debe limitarse a garantizar derechos jurídicos formales, sino que también debe trabajar activamente en la creación de un entorno que fomente la autonomía del pensamiento (Ara Pinilla, 2007, p. 150). En este sentido, indica la importancia de proporcionar una información lo más neutra y completa posible sobre los diferentes sistemas de valores existentes. Su argumento radica en que, el acceso a perspectivas diversas y al conocimiento de marcos culturales distintos permite a cada persona comparar, reflexionar y, en última instancia, formar su propia voluntad con un mayor grado de libertad. Es decir, el contraste con otras realidades posibilita una elección más consciente y menos determinada por los condicionamientos del entorno inmediato.
Esta realidad obliga a reconsiderar cómo se define la identidad en un entorno donde las decisiones humanas pueden estar influenciadas por sistemas automatizados opacos.
Sin perjuicio de que el presente trabajo adopte un enfoque jurídico y filosófico, se han incluido ejemplos y casos recientes que ilustran cómo determinadas aplicaciones de la inteligencia artificial como los sistemas de reconocimiento facial, los algoritmos de recomendación, o los sistemas de puntuación social afectan en la práctica la identidad personal y la autonomía. Por ello, se abordarán ejemplos recientes, como el proyecto Gender Shades, de los casos de uso problemático de reconocimiento facial en Estados Unidos, y los sistemas de recomendación y puntuación en plataformas digitales, que permiten evidenciar los modos en que estas tecnologías afectan la autonomía y la construcción de la identidad personal.
La identidad, como proceso, se construye en un marco en el que convergen la introspección y la interacción social.
Asimismo, no hay que olvidar la influencia que ejercen los sistemas que influyen en cómo somos percibidos y las oportunidades que se presentan en el espacio digital. Es lo que reconocemos como el yo algorítmico, una versión de nuestra identidad que viene moldeada por los sistemas de automatización. En este contexto, por yo algorítmico se entiende: la representación digital del sujeto, generada y moldeada por sistemas algorítmicos a partir de sus interacciones y datos. La validación algorítmica se refiere al proceso por el cual ciertos aspectos de esta identidad digital son reforzados o legitimados por los algoritmos, mientras que otros son invisibilizados. El sesgo algorítmico, por su parte, describe la tendencia de estos sistemas a reproducir o amplificar desigualdades sociales preexistentes, afectando la visibilidad y el reconocimiento de ciertos grupos o identidades en el espacio digital.
Es en este punto donde se despierta el debate entre la autonomía individual y la manera en que los algoritmos pueden condicionar nuestras decisiones y percepciones sobre nosotros mismos. Una proyección digital que, lejos de ser un simple reflejo, se convierte en un actor determinante en la configuración del ser.
Estos fenómenos resultan particularmente evidentes en el funcionamiento de diversos sistemas algorítmicos que condicionan, de forma más o menos explícita, tanto la percepción que los demás elaboran sobre nosotros como la autoimagen que cada cual va construyendo. Es preciso detenerse en algunos de los mecanismos más significativos al respecto. No debe olvidarse que, los algoritmos de recomendación presentes en redes sociales, plataformas de video o motores de búsqueda actúan como filtros que priorizan determinadas informaciones y silencian otras, tal como ha señalado Samuel (2012, p. 1) en su reseña del trabajo de Eli Pariser. Esta lógica, sustentada en patrones de comportamiento pasados, no solo refuerza las llamadas burbujas informativas, limitando la exposición a la diversidad cognitiva, sino que incide de manera directa en la identidad proyectada (Zuboff, 2019, p. 334-339). El contenido que se visibiliza o que se oculta condiciona los tipos de interacción posibles, los modelos de conducta que se imitan y, en definitiva, el repertorio identitario al que el sujeto puede acceder (Gordon 2019, p. 163-164). En este artículo conviene no perder de vista que la encapsulación del yo digital en perfiles predeterminados socava la autonomía deliberativa. En este sentido, tal y como advierte Yeung «la persona perfilada es ajena a cómo está siendo perfilada [...] y no dispone de oportunidad alguna para comprender la base sobre la que se realizan las valoraciones acerca de ella» (Yeung, 2017, p. 23). El yo digital, en consecuencia, queda encapsulado en perfiles predeterminados que, si bien refuerzan afinidades y preferencias del usuario, deterioran su capacidad deliberativa y su autonomía crítica.
En el contexto actual de los debates sobre inteligencia artificial (IA), otro ámbito que exige especial interés es el de los sistemas de reconocimiento facial, cada vez más implantados tanto en espacios públicos como privados. Estos sistemas plantean serias amenazas al derecho a la identidad y a la autodeterminación. En concreto, los sistemas de reconocimiento facial configuran un mecanismo de identificación automatizada que convierte la imagen del rostro en un dato biométrico persistente que puede ser utilizado para rastrear, clasificar y controlar los movimientos y comportamientos del individuo en múltiples contextos. Esta función de etiquetado permanente, realizada sin conocimiento ni consentimiento informado en la mayoría de los casos, genera un entorno de vigilancia continua que condiciona el modo en que los sujetos se muestran y actúan en el espacio público, afectando así tanto su libertad de autodeterminación como la posibilidad de configurar y redefinir su propia identidad social.
Más allá de las ya conocidas vulnerabilidades en cuanto a sesgos raciales y de género, debe recordarse que el trabajo de Buolamwini y Gebru en el proyecto Gender Shades mostró de manera empírica las profundas disparidades en el rendimiento de los sistemas comerciales de reconocimiento facial. En particular, su estudio evidenció que los algoritmos analizados arrojaban tasas de error significativamente mayores al clasificar rostros de mujeres con piel oscura con errores de hasta el 34,7 % en comparación con los resultados obtenidos para hombres de piel clara, cuyo error máximo no superaba el 0,8 % (Buolamwini y Gebru 2018, p. 9-10). Indiscutiblemente, estos resultados no hacen más que poner de manifiesto cómo el diseño y entrenamiento de tales sistemas puede reforzar patrones discriminatorios preexistentes, afectando derechos básicos como la no discriminación y el reconocimiento personal.
Debe recordarse que tales tecnologías tienden a cristalizar identidades mediante categorizaciones fijas, opacas y, en no pocas ocasiones, inmodificables. Como advierte Simone Browne, los sistemas biométricos y de reconocimiento algorítmico «reproducen jerarquías sociales preexistentes» y codifican categorías como la raza, el género o la nacionalidad como atributos naturalizados e inalterables, insertando al sujeto en un régimen de vigilancia del que resulta prácticamente imposible escapar o negociar su representación (Browne, 2015, pp. 90-94). La imposibilidad de sustraerse a una mirada algorítmica que etiqueta sin consentimiento debilita, así, la libertad de autodeterminación, sometiendo la identidad personal a un régimen de vigilancia permanente y profundamente invasivo. Como se advierte en el análisis reciente de la tecnología de reconocimiento facial, estos sistemas permiten ya la captura de imágenes biométricas en espacios públicos y privados, sin el consentimiento o conocimiento de los sujetos, y habilitan formas de control social cada vez más sofisticadas y eficaces (Taylor, 2023, p. 45).
En un plano no menos preocupante, los denominados sistemas de evaluación social, ya sean oficiales, como ocurre en el caso chino (Creemers, 2018, p. 7), o informales, como sucede con los sistemas de reputación en plataformas de economía, constituyen quizá la manifestación más explícita de la validación algorítmica de la identidad.
Tales sistemas no solo afectan oportunidades concretas (acceso a crédito, a vivienda, a determinados servicios), sino que moldean el comportamiento individual mediante incentivos extrínsecos, promoviendo, en última instancia, formas insidiosas de conformismo digital (Zuboff, 2019, p. 339). El mecanismo de estos sistemas consiste en asociar al sujeto una puntuación o clasificación basada en su historial de interacciones y comportamientos, según criterios opacos definidos por la plataforma o por la autoridad que gestiona el sistema. Esta puntuación se utiliza para modular el acceso a bienes, servicios o derechos, generando un entorno en el que los individuos ajustan su conducta a menudo de forma anticipada para evitar penalizaciones o maximizar recompensas. En este proceso, la identidad personal es instrumentalizada y moldeada conforme a parámetros algorítmicos de éxito social, limitando la capacidad real de autodeterminación y expresión genuina. La identidad personal, así pues, deja de ser una expresión libre y autónoma para convertirse en un instrumento modelado por parámetros de éxito definidos algorítmicamente, cuya lógica de funcionamiento escapa, a menudo, a todo escrutinio democrático. Como advierten Citron y Pasquale, estos sistemas de puntuación «pueden limitar la autodeterminación» disuadiendo a las personas de explorar nuevas oportunidades o de redefinir su trayectoria vital si quedan «atrapadas por una puntuación baja» (Citron y Pasquale, 2014, p. 8). Este proceso de puntuación no es inocuo ni meramente técnico. Como advierte Zuboff, estos sistemas constituyen máquinas automatizadas de modificación de conducta, en las que el flujo constante de incentivos y penalizaciones busca modelar el comportamiento de los usuarios conforme a objetivos definidos externamente (Zuboff, 2019, p. 339). En este contexto, los sujetos se ven impulsados a autorregular sus acciones y expresiones para evitar sanciones algorítmicas invisibles o maximizar su puntuación social, lo que genera una forma de conformismo anticipado que limita la autenticidad de la construcción identitaria. Como muestra Creemers, en el caso del sistema de crédito social chino, los mecanismos de recompensa y castigo actúan precisamente «para impulsar la autorregulación de los comportamientos individuales en función de estándares socialmente prescritos» (Creemers, 2018, p. 7). Esta lógica, que se extiende también a plataformas privadas en Occidente, limita la capacidad del individuo para definir y proyectar una identidad autónoma en el espacio digital.
En efecto, conviene no perder de vista que el riesgo aquí planteado dista mucho de ser una mera construcción especulativa. No debe olvidarse que la interacción cotidiana con sistemas algorítmicos está redefiniendo de manera activa tanto la subjetividad como la autonomía personal, configurando nuevas formas de dependencia simbólica y funcional. Así pues, nos encontramos ante condiciones cuanto menos preocupantes para el marco normativo y ético que, en principio, debería preservar la libertad identitaria en la era digital. La cuestión, en efecto, no es ya si tal preservación es necesaria lo es con toda evidencia, sino si los instrumentos jurídicos y las categorías conceptuales resultan aún adecuados para sostenerla frente a dinámicas de control cada vez más sofisticadas y opacas.
Lo que, en principio, se presentaba como una herramienta de personalización e interacción, ha terminado ejerciendo una influencia que escapa al control consciente. La aparente neutralidad de los algoritmos es una ilusión que debe ser cuestionada, pues, son sistemas que operan bajo lógicas diseñadas para priorizar intereses opacos en el imaginario social. Lo que se presenta a través de Internet y el espacio digital no es un reflejo de la realidad, sino una versión ajustada y optimizada según parámetros que escapan a nuestra deliberación. La identidad no debería ser una ecuación cerrada ni un conjunto de datos manipulables, sino un derecho inalienable que debe garantizar la subjetividad humana. Si bien es cierto que el yo algorítmico representa una evolución en la forma en que nos concebimos en el mundo digital, no es menos cierto que debemos ser cautelosos a la hora de priorizar un pensamiento. Es esta una situación que se superaría cuando se equilibre el potencial de la IA con la necesidad de garantizar que la identidad siga siendo una construcción genuina y no una proyección programada. En última instancia, la pregunta no es solo cómo nos define la tecnología, sino hasta qué punto estamos dispuestos a permitir que lo haga.
Como concepto filosófico y jurídico, la identidad ha sido abordada desde varias disciplinas. En la actualidad, la misma ha cobrado una especial relevancia, sobre todo por el avance vertiginoso de la IA. Mucho se ha hablado sobre los beneficios de la IA y su uso en la vida cotidiana. Se hace preciso destacar el hecho cierto de cómo ha transformado el modo en el que pensamos y nos relacionamos. La especial significación de cómo afecta la IA responde, especialmente, a la autonomía del pensamiento en la valoración de la identidad en el espacio digital y la protección de los derechos en un contexto de vigilancia algorítmica.
En el marco de la identidad digital, el derecho al libre desarrollo de la personalidad cobra especial interés, pues es, precisamente en ese contexto, donde la construcción y expresión de la identidad se ven constantemente en tensión con normas jurídicas y límites socioculturales. Este derecho, a menudo considerado difuso en su formulación, solo puede comprenderse adecuadamente desde la interacción entre la libertad y la autonomía personal. Su delimitación, por tanto, debe realizarse de manera expresa por el legislador, estableciendo parámetros que protejan la autenticidad y la autodeterminación de la identidad individual en entornos digitales y físicos. En términos de identidad, la libertad de acción vendría reconocida en función de las garantías que el marco constitucional disponga para su ejercicio efectivo. En este sentido, el reconocimiento de los derechos con independencia, de no estar explícitamente reconocidos (como la autonomía en la gestión de la identidad digital y la autodeterminación en los espacios virtuales), forman parte del elenco de derechos que se irradian del postulado en el libre desarrollo de la personalidad.
Desde esta perspectiva, la autonomía no es un concepto abstracto, sino la manifestación concreta de la capacidad de una persona para ejercer su libertad de acción y tomar decisiones que le permitan construir su propia identidad en los distintos espacios de interacción social. La autodeterminación no es un lujo ni un privilegio, sino una condición para que cada individuo pueda desplegar su proyecto de vida con coherencia y dignidad. La falta de soberanía en su autodeterminación no posibilita una libre elección y, por ello, no se podría hablar de un libre desarrollo de la personalidad. Afirma Bobbio, sobre este particular, que la libertad de la persona no es más que «la facultad de realizar o no ciertas acciones sin ser impedido por los demás, por la sociedad como un todo orgánico o, más sencillamente, por el poder estatal» (Bobbio, 2023, p. 305). Si se niega esta soberanía sobre la propia identidad, si las condiciones normativas o estructurales limitan o condicionan las opciones disponibles para el individuo, entonces el libre desarrollo de la personalidad se ve gravemente comprometido. Manifestar que la voluntad es libre es, en palabras de Bobbio «decir que esta voluntad se determina desde sí, es autónoma» (Bobbio, 1993, p. 104). Por ello, la protección de la autonomía no solo implica garantizar un espacio de decisión, sino también implementar herramientas que permitan la elección libre, sobre todo, en un escenario en el que la identidad digital en el ciberespacio cuenta con más vulnerabilidad.
La IA y la predicción algorítmica cobran todo su sentido en la identidad, cuestionando así los marcos normativos y filosóficos en los que tradicionalmente se han configurado como garantías de la autonomía personal.
Teniendo en cuenta que la identidad queda amparada no solo como un valor inherente, sino como un derecho fundamental en el espacio digital, la misma no puede quedar reducida a la eficiencia tecnológica o la conveniencia económica. La realidad nos obliga a repensar la situación actual. La transformación que deriva de la irrupción del espacio digital en la vida cotidiana ha permeado de tal manera que, sin darnos cuenta, se ha pasado de ser sujetos pensantes a convertirnos en sujetos pensados. Cada vez se hace más evidente como los sistemas de la IA cuentan con más margen en la toma de decisiones personales. Cuestión que pone en evidencia cómo la identidad ha dejado de ser reconocida como una respuesta individual para transformarse en una respuesta inducida por un conjunto de datos procesados, analizados y categorizados por algoritmos que operan bajo lógicas opacas y sesgadas. Por ello, cabe preguntarse: ¿en qué posición queda la autonomía cuando la identidad es interpretada y ajustada por sistemas automatizados? La respuesta nos conduce a pensar si las interacciones digitales están sujetas a un control algorítmico que predice, propone y puede condicionar la autonomía para decidir dónde queda el postulado del libre desarrollo de la personalidad.
Frente a este horizonte, la respuesta obliga a ser conscientes de que no se trata de una posibilidad lejana ni de un argumento propio de la ciencia ficción, sino en tener presente el valor que asume la autonomía como principio maestro del libre desarrollo de la personalidad. Por tanto, se desprende que el horizonte de lo posible ya no puede fundamentarse en el valor de la autonomía personal y el discernimiento autónomo, cuando lo que ocurre no es otra cosa que un pensamiento donde las preferencias y creencias preexistentes son reforzadas, restringiendo así la posibilidad de una deliberación racional.
Desde la teoría del garantismo, Ferrajoli advierte sobre la importancia que asume el derecho como garante en la protección de los derechos fundamentales. Por tanto, bajo esta lógica, si defendemos a la identidad como derecho fundamental, el Estado deberá proporcionar garantías que limiten de los sistemas de la IA para actuar sobre la autonomía personal, evitando que en la toma de decisiones el sujeto pueda estar condicionado por agentes automatizados externos y con la intención de manipular. De tal modo, el autor reconoce que el derecho tiene como objetivo garantizar y tutelar los derechos fundamentales (Ferrajoli, 2001, p. 30). Desde esta perspectiva, la regulación de la identidad digital debe sustentarse en mecanismos efectivos de control sobre el poder tecnológico.
En este punto, se debe entender que la cuestión no se basa simplemente en cómo nos presentamos en el espacio digital; de lo que se trata es de cómo el espacio digital reconfigura quiénes somos. No se puede ignorar que la identidad va a venir definida con base en sistemas de automatización de datos y algoritmos, y, sin darnos cuenta, se corre el riesgo de que sean estos quienes nos definan.
La cuestión se torna más preocupante cuando la identidad digital se encuentra en un marco vigilado y la libertad y la autonomía quedan reemplazadas por un mecanismo que condiciona nuestra racionalidad. Ello, desde luego, supone un giro que nos debe hacer repensar sobre la significación del ser «uno mismo» en el espacio digital y hasta qué punto lo genuino y lo auténtico no está siendo moldeada por estructuras invisibles.
A este escenario se suma la creciente fetichización de la cultura digital y el valor que se le otorga a la información generada en la red. Se pronuncia Valderrama cuando afirma que
[…] nuestro desdoblamiento con la data digital puede entramparnos en la creencia ahora de que esos yoes de data digital son «en verdad» la identidad del usuario, en que ya no hay anonimato sino pura exposición del yo, cayendo ahora en una fetichización de la cultura digital, y con ello del yo digital. (Valderrama Barragán, 2016, p. 15)
La realidad es que la identidad a través de Internet y redes sociales no deja de ser una representación de nosotros mismos. Señala Valderrama que esta visión ignora que los sistemas que nos analizan no son neutros, sino que operan bajo sesgos e intereses específicos. Porque, lo que es evidente, es que no estamos en un escenario que cuente con transparencia ni con una significación objetiva del yo; más bien, se podría entender que el espacio digital aboca a una construcción que viene delimitada por intereses de mercado, la lógica de la vigilancia y el negocio del big data. De esta manera, indica que «nuestra identidad digital pasa a ser preformada también por esos me gusta algoritmos e interfaces de manera más o menos implícita, orientándola a un cierto orden y convergencia» (Valderrama Barragán, 2016, p. 12).
Es, precisamente, en este contexto donde la autonomía personal deja de ser un derecho protegido para convertirse en una variable ajustada a conveniencia de terceros. Si la identidad digital queda constreñida a una identificación invariable o al sometimiento de categorías que ya vienen establecidas, ¿qué margen queda para la autodeterminación?, ¿cómo podemos hablar de libre desarrollo de la personalidad cuando las opciones que tenemos han sido filtradas, recomendadas, y, en cierto modo, inducidas? El problema no queda reducido a la recopilación de datos personales, la cuestión se torna más compleja por la manera en la que se instrumentalizan y mercantilizan esos datos para modelar nuestras decisiones sin que apenas seamos conscientes de ello.
Ante este panorama resulta necesario recuperar la visión tradicional y garantista que ofrece el ideario de los derechos. Identificar a la identidad como un derecho fundamental obliga a reconocer la necesidad de que el espacio digital garantice un sistema seguro y conforme a los principios de transparencia, equidad y salvaguarda de los derechos fundamentales. Por su parte, Ferrajoli (2001, pp. 65-68)3 apunta que el reconocimiento de las garantías que debe ofrecer el derecho se encuentra en limitar el exceso del poder garantizando, en todo caso, la autonomía individual. En el marco que nos ocupa, se trataría de evitar que los sistemas de IA operen con total impunidad implementando mecanismos que impidan que el espacio digital se convierta en un instrumento de control en lugar de un espacio de expresión y desarrollo.
La realidad evidencia que diferentes sectores defienden la necesidad de crear un marco normativo que tenga en cuenta las transformaciones que derivan de los avances tecnológicos con el fin de paliar las posibles vulneraciones en la autonomía individual. Sin embargo, Ferrajoli indica que el problema no radica en la falta de regulación, sino en la falta de garantías reales para hacerla efectiva. De hecho, en su obra sobre Los poderes salvajes, el jurista italiano pone de manifiesto que no basta con imponer normas para contener el poder, sino que es imprescindible contar con una estructura institucional sólida que garantice su cumplimiento (Ferrajoli, 2011, p. 82).
En la línea, sostiene Ferrajoli que «los poderes salvajes que inevitablemente se desarrollan al margen del derecho, en ausencia de límites y controles» (Ferrajoli, 2011, p. 45) son solo una parte del problema. Más preocupante resulta el hecho de que, incluso cuando existen normas para regular estos poderes, su aplicación puede ser insuficiente o incluso ilusoria si no se acompaña de mecanismos efectivos de garantía. Como él mismo reconoce, «la libertad salvaje y sin ley» de la que habla Kant se manifiesta en un poder que, aunque formalmente regulado, no está realmente limitado por controles efectivos (Ferrajoli, 2011, pp. 45-46).
Este planteamiento obliga a repensar sobre el alcance real de la regulación en el ciberespacio, porque, si la única respuesta para poder afrontar la preservación de la libertad y la autonomía individual frente al poder de la IA o de los algoritmos es la promulgación de leyes que, en la práctica, carecen de una estructura garantista sólida; entonces no estamos verdaderamente protegiendo la autonomía individual, sino generando una falsa sensación de control. La norma, sin una estructura de garantías que la respalde, puede convertirse en una herramienta vacía de contenido. La regulación de la identidad digital debe sustentarse en mecanismos efectivos de control sobre el poder tecnológico, de tal forma que, la ausencia de límites efectivos genera desigualdades estructurales en el acceso a los derechos fundamentales, lo que se refleja en la actual brecha digital y la mercantilización de la identidad.
La identidad, en el marco que nos ocupa, no solo cambia su concepción, sino también su alcance. En este punto es donde se pueden observar nuevas formas de desigualdad. En efecto, se defiende que no es lo mismo tener una identidad digital que poder ejercitarla plenamente. No basta con existir en el espacio digital, hay que ser visto, validado y reconocido, algo que no está al alcance de todos en igualdad de condiciones.
Conviene precisar que esta desigualdad no se limita a cuestiones de conectividad, sino que también se reproduce y amplifica a través de los propios sistemas algorítmicos. Tal y como recuerda Yeung, los algoritmos de recomendación y clasificación operan como arquitecturas de elección que, mediante técnicas de hypernudge, modelando las percepciones y el comportamiento de los usuarios de formas sutiles pero eficaces y, por ende, limitando su capacidad de juicio independiente (Yeung, 2017, p. 26). En efecto, los patrones de visibilidad y validación en los espacios digitales no son neutrales, sino que refuerzan dinámicas de exclusión preexistentes. En la práctica, los algoritmos de recomendación seleccionan y jerarquizan los contenidos que cada usuario visualiza, en función de perfiles conductuales generados a partir de datos históricos de navegación e interacción. Este proceso favorece la exposición repetitiva a ciertos tipos de discurso o de representación, mientras que invisibiliza o devalúa a aquellos que se desvían de los patrones dominantes o de las preferencias comerciales de la plataforma. De este modo, las identidades digitales que no se ajustan a estos parámetros quedan progresivamente marginadas, afectando tanto la capacidad del sujeto para proyectar su identidad como su acceso a formas plurales de reconocimiento social.
La confluencia entre el consumo, la transparencia y las estructuras de poder ponen de manifiesto que la identidad en la era digital no es un fenómeno individual ni neutral. En este proceso, la desigualdad no es solo una cuestión de acceso a la tecnología, sino de las posibilidades reales de participación y reconocimiento en el espacio digital. La construcción del yo digital no debería ser un privilegio reservado a quienes pueden permitirse el lujo de existir en el escaparate virtual con los códigos adecuados. Por ello, más que nunca, urge reflexionar sobre el impacto del consumo y sobre los mecanismos que perpetúan la exclusión en este nuevo escenario.
Algunos estudios evidencian que la identidad digital no cuenta con un marco normativo que pueda regular los nuevos retos a los que nos enfrentamos, sobre todo, cuando son precisamente las lógicas mercantilistas quienes determinan la identidad. Cobra especial interés la figura de los jóvenes centennials, donde se comprueba que la identidad en la era digital se construye en gran parte a través del consumo4. No se trata solo de qué se dice o se muestra, sino de cómo se viste, qué lugares se visitan, qué dispositivos se utilizan o con quiénes se interactúa en redes sociales. De hecho, se comprueba que, a través de la imagen que se publica, lo que realmente se busca es la validación a través de likes, comentarios y seguidores. De esta manera, la identidad digital se cristaliza en un escaparate donde lo que se proyecta debe encajar en los patrones de lo que demanda la sociedad (Sánchez-Riaño, 2022, p. 2022). La polémica se presenta cuando la realidad muestra que no todas las personas cuentan con las mismas posibilidades de acceder a esta dinámica y es donde la desigualdad se vuelve más evidente. La paradoja es simple: la construcción del yo digital no dependerá del acceso a la tecnología, sino también en la forma en que los sistemas algorítmicos favorecen o limitan su visibilidad. Esto implica que quien cuente con mayor poder (social, económico o político) podrá construir un yo digital que resulte atractivo permitiendo así, amplificar su visibilidad en Internet y las tecnologías de la información y las comunicaciones (TICs). Ello provoca una desigualdad digital, pues se insiste en la idea de que no se trata de reconocer el derecho de acceso a Internet, sino en la posibilidad de construir una identidad que permita en términos de igualdad alcanzar las mismas oportunidades.
La implementación de las TICs progresa a un ritmo que revela la desigualdad en relación a otros países. En América Latina se evidencia cómo todavía las estructuras por parte de las grandes potencias ejercen su influencia en la forma en que las personas desarrollan y gestionan su yo digital, evidenciando nuevas formas de desigualdad y vulnerabilidad. A pesar de que en la última década los resultados muestran un avance en la conectividad, los recientes informes indican que todavía existen 244 millones de personas que no cuentan con la posibilidad de acceder a Internet; esta cifra equivale al 32 % de la población total. Esta desigualdad muestra que las zonas más afectadas son las rurales, con un 37 % de posibilidad de acceso a diferencia de las zonas urbanas que cuenta con el 80 % (Desigualdad 4.0, 2021).
Más preocupante todavía es la diferencia en función de los niveles de ingreso. En los hogares con mayor poder adquisitivo el 81 % tiene acceso a Internet frente al 38 % de quienes cuentan con menos poder adquisitivo. En países como Bolivia y Paraguay, apenas un 3 % de las familias más pobres logra conectarse a la red de manera regular (Desigualdad 4.0, 2021).
Al mismo tiempo, el impacto de la IA y las TICs en el mercado laboral evidencia, de igual manera, una discriminación más que palmaria. Los resultados ofrecidos por la Organización Internacional del Trabajo (OIT) muestran que, entre el 2 % y el 5 % de los empleos quedarán automatizados en los próximos años, mientras que entre el 26 % y el 38 % de trabajadores será sustituido por sistemas de IA (Brecha digital empresarial, s.f.) Los datos expuestos evidencian una limitación en la formación de quienes quieren entrar en el mercado laboral, no pudiendo adaptarse a las nuevas demandas de habilidades digitales, exponiendo a millones de personas sin la formación necesaria para enfrentar esta transición.
Es destacable cómo la desigualdad también se manifiesta en la digitalización del comercio y la industria. La prueba se evidencia en cómo los países suscritos a la Organización para la Cooperación y el Desarrollo Económicos (OCDE) el comercio digital cuenta con un apoyo real en la dinámica empresarial. Sin embargo, la OCDE advierte que en América Latina solo el 18 % de las compañías han implementado canales de venta digitales (OCDE Digital Economic Outlook 2024: perspectivas de futuro, 2024).
Esto responde principalmente a que no cuentan con una infraestructura tecnológica óptima, lo que va a limitar su competitividad en el mercado global.
Frente a este panorama, es innegable que América Latina se encuentra en un punto de inflexión. Si bien la conectividad ha crecido y se han dado pasos importantes hacia la transformación digital, la brecha que separa a quienes pueden aprovechar estas oportunidades de aquellos que aún están al margen de la digitalización sigue siendo un reto.
No se trata de ampliar la cobertura de Internet, sino en garantizar que esta sea accesible, asequible y de calidad. América Latina no puede permitirse quedar atrás en la era digital; el momento de actuar es ahora.
La tecnología, lejos de ser un ente neutral, está moldeada por decisiones que van más allá de lo técnico. A modo de ejemplo, el desarrollo que se evidencia en Cuba responde a una combinación de necesidades económicas, prioridades sociales y el interés por garantizar una mayor independencia tecnológica. No es solo una herramienta para modernizar procesos, sino un motor de cambio que mejora la calidad de vida de las personas y fortalece la soberanía digital del país.
Prueba de la apuesta por el crecimiento del comercio electrónico es la inversión en plataformas como Transfermóvil y EnZona (Omar, 2024, p. 7). De esta manera, se pueden efectuar pagos, transferencias y compras sin necesidad de efectivo, agilizando transacciones y facilitando la inclusión financiera. Desde luego, supone un avance en la optimización de recursos.
La regulación de la identidad digital no puede quedar reducida a la protección de datos personales o la garantía de un derecho de acceso a las TICs e Internet. Se trata más bien de reconocer la necesidad de implementar un marco normativo que asegure que la identidad digital se produzca en términos equitativos. Este planteamiento, desde luego, comporta el riesgo de una cierta perversión. Pues es evidente que la brecha digital no se reduce a la representación de una identidad, sino que sus consecuencias cuentan con un alcance que puede proyectarse en el acceso a oportunidades laborales, educativas y sociales. Se quiere decir con ello que, un perfil que resulte atrayente permite crear conexiones y aumentar el capital simbólico de una persona o incluso de un Estado.
El debate sobre los derechos de identidad en el entorno digital ha dejado de ser un discurso impreciso para convertirse en uno de temas que más preocupa en el marco ético jurídico. Hemos pasado de un reconocimiento en cómo nos mostramos en Internet a evidenciar las implicaciones que tiene la identidad en la vida real. Por ello, si una persona no cuenta con una visibilidad en su yo digital carece del peso necesario para influir en el entorno social y globalizado. Lo que implica, una barrera invisible de marginación a quienes no tienen los recursos o las herramientas para construirla. De esta forma, el acceso a la identidad digital se identifica no como una cuestión técnica, sino también política y económica.
Se parte de la consideración de que la tecnología ha dejado de ser entendida como una herramienta de apoyo para cristalizar la experiencia humana. Pues, pensemos que no solo se reconoce como un soporte que mejora la eficiencia, sino que ha comenzado a intervenir en la construcción de nuestra identidad, nuestras relaciones y nuestras decisiones. En este escenario, el pos humanismo cobra especial atención en el reconocimiento de la digitalización y la IA alterando el equilibrio entre lo humano y lo tecnológico, creando un entorno en el que las máquinas no solo procesan información, sino que también influyen en nuestras elecciones y modos de vida (Barona Vilar, 2024a, p. 89). Los límites propios que derivan del pos humanismo obligan a reconsiderar qué significa ser humano y su identidad en el espacio digital.
El reconocimiento de la identidad en el ámbito jurídico ha evolucionado de manera paulatina. Batuecas plantea que la misma, durante años, fue reconocida como un derecho difuso presentado dificultad a la hora de encajarlo en las categorías tradicionales del derecho. Advierte el autor que, a medida que la sociedad ha comprendido su importancia, ha comenzado a consolidarse en los diferentes corpus normativos tanto nacionales como internacionales. No obstante, a pesar de los esfuerzos en su reconocimiento, el problema radica en la diferencia entre la identidad como derecho y la identificación como mecanismo de control. En España, la Ley 20/2011 del Registro Civil suscribe el derecho a la identidad de la persona en varios de sus artículos (4, 5, 11, 15, 29), pero, más bien, este contenido está más centrado en la identificación administrativa que en la identidad como construcción social y personal (Batuecas Caletrío, 2022, p. 930).
Es una cuestión que no es baladí, porque lo que realmente importa es que la identificación responde a una lógica burocrática, asignando datos concretos para identificar a una persona dentro de un sistema. Sin embargo, la identidad tiene un alcance y significación más amplia, pues no se limita a un documento oficial, sino que permite identificar a cada persona en cómo es reconocida y cómo se reconoce a sí misma en el constructo social y digital. Esto pone de manifiesto que la identificación se presume como un concepto estático y en contrario, la identidad es un proceso en constante construcción.
En la misma línea argumental, otras de las cuestiones que resultan necesarias de precisar es el empleo de sistemas biométricos apoyados por la IA. Estos sistemas pueden identificar a las personas a través de sus rasgos físicos como la que resulta de las huellas dactilares, reconocimiento facial o patrones de comportamiento, pudiendo, incluso, pronosticar las emociones o las intenciones de una persona. La simple propuesta que fundamenta esta idea, sobre la identificación personal a través de datos, desde luego, supone un reto desde diferentes dimensiones, éticas, jurídicas y sociales que no tienen una respuesta (Garriga Domínguez, 2024, pp. 121-122).
Si damos por válida la implementación de sistemas biométricos, no se puede obviar que no está libre de sesgos. De hecho, la simple posibilidad de que la recopilación de datos biométricos se pueda llevar sin el consentimiento de las personas o un consentimiento que no cuenta con la suficiente información, debilita, en todo caso, el explayamiento del libre desarrollo de la personalidad.
No se quiere decir que no se reconozcan los beneficios que ofrecen los sistemas biométricos. Verdaderamente, resulta importante destacar que hay que ser cautelosos, sobre todo, en lo que se refiere a la transparencia y la equidad en la implementación; puesto que se ha pasado de la autenticación y seguridad a incidir en aspectos que afectan directamente en los derechos y libertades fundamentales. La recopilación de datos biométricos sin consentimiento informado o bajo el paraguas de la opacidad pone en riesgo el valor que supone el libre desarrollo de la personalidad, pues convierte a los individuos en objetos de análisis constante, reduciendo su identidad a un conjunto de parámetros físicos y conductuales.
El impacto de la identidad en el ciberespacio se proyecta desde diferentes dimensiones. Uno de los casos más representativos de esta problemática es el trabajo de Joy Buolamwini, investigadora del MIT y fundadora del proyecto Gender Shades, quien evidenció cómo los sistemas de reconocimiento facial presentan un fuerte sesgo racial y de género. Fruto de su investigación identificó en empresas como Microsoft o IBM la presencia de algoritmos de clasificación basados en criterios raciales (El impacto de Joy Buolamwini, 2023). Un ejemplo palmario lo tenemos en la detención de Robert Williams en Detroit en 2020 cuando fue arrestado por una identificación errónea generada por un sistema de reconocimiento facial utilizado por la policía de Detroit.
Un estudio realizado en 2018 evidenció como Amazon desarrolló un sistema de IA para seleccionar a sus trabajadores discriminando sistemáticamente a las mujeres (Dastin, 2018). Por lo que se pone de manifiesto que los sesgos no solo afectan la identificación y el empleo, sino también la visibilidad de ciertos colectivos en el entorno digital. Plataformas como TikTok e Instagram han sido también cuestionadas. Un informe de la empresa AlgorithmWatch (Institut für ökologische Wirtschaftsforschung, 2023) demostró que estas plataformas contaban con algoritmos para evitar la participación de personas con discapacidad o de piel oscura.
Ello demuestra, una vez más, lo que hay detrás del yo digital y la exclusión digital encubierta, donde la identidad de ciertos grupos queda marginada dentro del espacio virtual, afectando su derecho a la libre expresión y participación en la sociedad digital.
Si asumimos que los sistemas de IA resultan un requisito necesario para interactuar en el espacio digital, no debemos olvidar que, su reconocimiento general, no implica que sean legítimos ni justos.
En cualquier tecnología que cuente con sistemas de big data, la asimetría de poder está presente. La respuesta lógica viene de los intereses de las grandes empresas tecnológicas que han revertido la información para influir en la toma de decisiones; desde el acceso a servicios, consumo, hasta el nivel de vigilancia que se ejerce sobre determinados grupos. Esta concentración hace plantearnos cuál es el modo en el que se recopilan los datos o bajo qué criterios se establecen los parámetros de identificación y control. Hasta el día de hoy, no hay respuesta.
No obstante, sí se puede aseverar que los sistemas de automatización irradian su influencia en diferentes ámbitos. Desde el punto de vista político, y, atendiendo a las características de un determinado constructo social se podrían manipular las voluntades. Por lo que las estrategias de persuasión ya no se proyectan sobre un colectivo, sino que se diseñan a medida de cada individuo, explotando sus miedos, inseguridades y preferencias a través de contenidos personalizados para influir en su decisión. De igual manera, estos sistemas también despliegan sus efectos a través de la personalización de la publicidad, afectando no solo a las decisiones económicas, sino también en cómo las personas construyen su identidad y perciben su propio valor dentro del mercado digital (Barona Vilar, 2024b, p. 317).
Todo ello obliga a pensar sobre el impacto en la construcción y control del yo digital si aceptamos que los sistemas algorítmicos cuenten con la capacidad, no solo de interpretar, sino de ejercer cierta influencia en nuestra toma de decisiones. La pregunta obligada es si, verdaderamente, puede afirmarse que el sujeto conserva el control sobre su identidad en el espacio digital.
El avance de la digitalización ha transformado la forma en que interactuamos con el mundo, obligándonos a migrar casi por completo nuestra información personal al espacio digital. En este sentido, se hace obligado advertir que cualquier acción que hacemos en línea deja una huella. Para llevar a cabo esta recopilación y almacenamiento de datos, los sistemas de big data recopilan un gran volumen de datos, utilizándolos con fines que van desde la personalización del contenido hasta la toma de decisiones automatizadas.
Es evidente que este proceso de digitalización ha ocurrido de manera tan acelerada que no ha habido suficiente tiempo para que las personas comprendan realmente sus implicaciones. De hecho, se ha naturalizado y aceptado la implementación de tecnologías digitales sin tan siquiera hacer una valoración crítica sobre quién recopila los datos, cómo se utilizan y qué impacto pueden tener en la autonomía individual. A medida que la tecnología se vuelve más omnipresente, la influencia sobre nuestras decisiones también se intensifica, reduciendo la capacidad de actuar de manera completamente independiente.
Hasta el momento, se comprueba que la identidad digital se configura como un conjunto de interacciones que va más allá de quiénes somos en el mundo físico, transformándose en el espacio digital en datos y percepciones que se construyen dentro de un entorno que no siempre está bajo nuestro control. Esto nos conduce a pensar que no se trata de la información que queremos compartir en Internet o redes sociales, sino también la imagen que reciben de nosotros o lo que los sistemas algorítmicos interpretan a partir de nuestros comportamientos, almacenando esos datos sin tan siquiera ser conscientes de ello. En este escenario, la idea de gestionar la propia identidad en el espacio digital se vuelve cada vez más difusa, pues la información personal circula, se procesa y se maneja con un fin del que no siempre somos conscientes. De este modo, los sistemas de personalización y clasificación no solo condicionan el acceso a contenidos, sino que inciden directamente en la configuración de la identidad digital y en la autonomía crítica del sujeto, contribuyendo a una arquitectura de control cada vez más sofisticada y opaca.
No debe olvidarse que estos procesos tampoco son neutrales en su impacto sobre la autonomía crítica del sujeto. Los sistemas de recomendación y filtrado algorítmico no solo condicionan la visibilidad de ciertos contenidos, sino que estructuran el horizonte cognitivo de los usuarios, delimitando qué perspectivas y discursos resultan accesibles. Como advierte Zuboff, estas arquitecturas algorítmicas generan entornos diseñados para «maximizar la captación de atención y el flujo continuo de behavioral surplus, reforzando patrones de consumo informativo cerrados y autorreferenciales (Zuboff 2019, 339). Este diseño técnico facilita la creación de cámaras de resonancia, donde las creencias preexistentes se ven amplificadas mientras que las voces disonantes quedan progresivamente excluidas. Con ello, se debilita no solo la pluralidad informativa sino también la capacidad de deliberación racional, elementos imprescindibles para el ejercicio efectivo de la autonomía personal y para la construcción de una identidad reflexiva en el entorno digital.
Conviene precisar que la identidad digital, de igual forma, actúa como un mecanismo de autenticación que permite corroborar quién es quién en un contexto donde la presencia física ha sido reemplazada por credenciales electrónicas. De esta manera, cada vez que una persona firma un documento digital o se comunica a través de una plataforma en línea, su identidad digital se activa como una credencial que asegura su legitimidad dentro de ese espacio.
Ahora bien, para que adquiera validez dentro de los sistemas tecnológicos y jurídicos, debe pasar por un proceso de gestión de identidad que verifique y valide la información de un individuo o entidad. Este proceso no es homogéneo ni se reduce a una única acción; puede implicar la recopilación y análisis de atributos específicos, como un nombre, una firma electrónica o una credencial biométrica con el fin de certificar que quien solicita acceso a un servicio es realmente quien dice ser.
La realidad se impone, y la manera de identificarnos ha pasado de la presentación de un documento que acreditaba la identificación de una persona a la verificación de la identidad digital. Desde luego es una situación que nos aleja de la seguridad tangible de los métodos con presencia física. Los datos personales se gestionan conforme al nivel de seguridad que se exige en cada contexto. Lo que se quiere poner de manifiesto es que cuando se trata de una firma electrónica, no es lo mismo identificarse para acceder a una red social que hacerlo para firmar un contrato. La identidad digital puede emplearse para autenticar el acceso a un servicio, o puede implicar un procedimiento más riguroso que debe ser validado por la entidad jurídica que corresponda. Lo más preocupante es que, sin darnos cuenta, se deja de ser usuarios para convertirse en fuentes de información que alimentan algoritmos diseñados para influir en nuestras preferencias y comportamientos. Por lo que la autonomía puede estar determinada en la construcción de nuestra realidad (Eder Fernandes, 2021, p. 129).
Frente a esta situación, el control de la identidad digital no puede quedar limitado a la simple privacidad o a decidir qué datos compartir. Dicho de otro modo, la gestión y el control de la identidad digital requiere que los usuarios cuenten con la información suficiente para comprender el funcionamiento del espacio digital; solo de esta manera podrán actuar con responsabilidad ética en sus interrelaciones. Cuando se tenga plena conciencia de cómo operan la IA e Internet, se podrá discernir sobre los riesgos a los que se exponen cuando ofrecen sus datos personales y qué derechos tienen sobre su información personal. Así, se podría hablar de un mínimo de control sobre la propia identidad digital (Giones-Valls, 2010).
Desde este particular, resulta destacable la obra de Allende cuando describe los posibles modelos en la gestión (Allende López, 2020, p. 16). Ciertamente, uno de los modelos más reconocidos es el centralizado, donde cada plataforma digital cuenta con la capacidad para administrar la identidad de sus usuarios de forma independiente. Es el caso de plataformas que requieren registro con usuario y contraseña, como redes sociales o servicios de correo electrónico. Esto no significa que no existan riesgos, pues los datos quedan almacenados en bases centralizadas, lo que aumenta el riesgo de ataques obligando a los usuarios a recordar múltiples credenciales. Otra forma de gestión de la identidad es la que permite que una entidad intermedia proporcione el acceso a los servicios digitales, por ejemplo: cuando para ingresar en una plataforma te exigen que abras una cuenta de Google. Siguiendo la línea argumental, también nos encontramos con el modelo federado en el que distintos proveedores operan bajo un mismo marco de confianza. De esta manera, la información del usuario puede compartirse de manera segura entre varias entidades sin necesidad de contar con varios registros. Es como el sistema que emplea la Unión Europea (UE) con eIDAS que permite a los ciudadanos de los Estados miembros obtener una credencial de identidad para acceder a servicios en otros Estados miembros. A diferencia de los anteriores, el modelo centrado en el usuario, se caracteriza porque es el propio usuario quien decide qué información compartir y con quién, ganando autonomía sobre sus datos. En este caso, los datos quedarían almacenados en dispositivos personales, sin depender de terceros. De todos los descritos con anterioridad, la mayoría de las doctrinas insisten en que el modelo de identidad auto-soberana es el más avanzado. En este sistema, los usuarios son los únicos dueños de sus datos y no necesitan la revalidación de entidades externas. Para lograrlo, se emplean tecnologías como Blockchain, que garantizan la autenticidad y seguridad de la información sin intermediarios.
Sin desmerecer esta clasificación cabe preguntarse hasta qué punto las personas tienen realmente el control sobre su identidad digital. La respuesta, como en muchas cuestiones tecnológicas, no va a ser unánime. En todo caso dependerá de la infraestructura disponible, así como del nivel de conocimiento y conciencia que los propios usuarios tengan sobre su presencia en el mundo digital.
Desde este particular, Eder reconoce tres aspectos que pueden condicionar la identidad digital: por la visibilidad (qué se encuentra sobre una persona en la red), la reputación (cómo es percibida esa información) y la privacidad (qué datos personales están accesibles y cómo se gestionan). El control de la identidad digital se encuentra en la intersección de estos elementos, ya que una falta de regulación o de herramientas para la gestión de la privacidad puede comprometer la autonomía de las personas en el entorno digital (Merchán Murillo, 2021, p. 199).
Cada vez más, en el imaginario social se está asumiendo los riesgos asociados a la privacidad y seguridad de los datos, lo que obliga a implementar normativas que permitan a los usuarios ejercer mayor control sobre su información. No obstante, aún queda mucho por hacer en términos de transparencia y protección de derechos, ya que la mercantilización de datos sigue siendo una práctica común en el modelo de negocio de muchas plataformas digitales.
Sartori advierte de los peligros de una sociedad que, en lugar de pensar, solo ve. Una sociedad que ha cambiado el pensamiento crítico por estímulos inmediatos y superficiales corre el riesgo de estar mediatizada. En su observación sobre cómo la televisión puede configurarse como un medio de mediatización, indica cómo la imagen nos seduce, nos envuelve y, sin que nos demos cuenta, nos modela; así, afirma que «para verla basta con poseer el sentido de la vista, basta con no ser ciegos» (Sartori, 1997, p. 35). Una interpretación extensible nos conduce a pensar que la identidad digital se encuentra atrapada en esa misma lógica, pues nos muestran lo que queremos ver, nos hacen creer que decidimos, pero, en el fondo, el verdadero poder no está en nuestra autonomía de la voluntad.
Los algoritmos y los sistemas automatizados tienen un entramado de sofisticación que ya cuentan con la capacidad de gestionar los datos personales con la finalidad de influir en el usuario. O, mejor dicho, la manera en que ellos gestionan los datos personales. La paradoja resulta evidente cuando se nos insiste en que somos libres de controlar nuestra identidad en línea, que podemos elegir qué compartir y qué no. Pero, al mismo tiempo, la arquitectura digital está diseñada para que la exposición sea la norma y la privacidad y el consentimiento algo automático casi irrelevante. Como Sartori señalaba sobre la televisión, el problema no es solo quién controla la información, sino que, muchas veces, ni siquiera nos damos cuenta de que ese control no depende de nosotros mismos.
Lo que se quiere poner de manifiesto es que no se trata de un problema de control por parte de terceros, más bien, de reflexionar que estamos ante un debilitamiento interno. Esto no hace más que reflejar la necesidad que tienen las personas de obtener respuestas inmediatas y validaciones insulsas, dejando la reflexión y el pensamiento crítico en un segundo plano. Desde el parecer de Sartori este fenómeno no solo nos hace más manipulables, sino que nos aleja del verdadero ejercicio de la libertad. Porque, si no se cuenta con un pensamiento crítico, la capacidad de analizar la información no existe y, por tanto, ¿cómo podríamos esperar ser dueños de nuestra identidad en el espacio digital?
Visto así, y en la línea de pensamiento que ofrece Sartori, la identidad digital más que un avance hacia la emancipación individual, se convierte en una nueva forma de manipulación, donde la ilusión de control es suficiente para mantenernos pasivos. De tal manera que, la lucha no sería tecnológica, sino cultural y educacional, porque de lo que se trata es de recuperar la capacidad de discernir, de cuestionar y de resistir la imposición de un modelo donde dejamos de ser ciudadanos para convertirnos en meros datos en un sistema que no controlamos.
Consumimos información a velocidades vertiginosas, pero no la procesamos realmente. Nos indignamos, nos emocionamos, reaccionamos, pero rara vez reflexionamos. Y en este escenario, la identidad digital se convierte en un caldo de cultivo para la manipulación. Si no entendemos cómo funcionan los sistemas que administran nuestra información, si no cuestionamos las políticas que determinan el acceso y la privacidad personal, ¿cómo podríamos reclamar un verdadero control sobre quiénes somos en el entorno digital?
La identidad y la subjetividad no deben ser entendidas como una realidad estática. La identidad no solo es lo que creemos ser, sino también lo que los demás ven en nosotros.
Los sistemas automatizados y la IA han permeado en la configuración de quiénes somos. La pretendida consideración de la identidad como derecho fundamental, se desvanece cuando se la concibe, en no pocas ocasiones, de manera reduccionista, vinculándola solo a registros administrativos o documentos de identificación, pero la realidad es mucho más compleja, pues la identidad no solo nos define, sino que también nos permite ejercer otros derechos.
Los riesgos en la implementación de la IA se traducen en la manera en que nuestras decisiones puedan estar mediatizadas, por tanto: ¿qué queda de nuestra autonomía? Pensar que muchas de nuestras interacciones en redes sociales, el contenido que consumimos y las oportunidades que se nos presentan están determinadas por algoritmos opacos, los cuales no hacen más que encasillarnos en patrones predecibles.
La desigualdad digital, en tanto extensión de las fracturas del mundo físico, no puede considerarse un simple problema de acceso. La mera presencia en el entorno virtual no garantiza ni visibilidad, ni agencia, ni reconocimiento. Muy al contrario, las brechas se ensanchan y cristalizan en formas sofisticadas de exclusión algorítmica.
El escenario exige recuperar el control sobre la propia identidad digital antes de que sea irrevocablemente configurada por estructuras tecnológicas opacas, guiadas por intereses económicos o lógicas de vigilancia. No se trata solo de evitar abusos, sino de garantizar condiciones que hagan posible la autonomía personal en los entornos digitales; por tanto, se exige la construcción de marcos normativos que no se limiten a regular, sino que efectivamente protejan. Instrumentos como el AI Act europeo, la LGPD brasileña, o las recientes moratorias sobre reconocimiento facial en ciudades como San Francisco o Toronto ofrecen referencias valiosas para articular una gobernanza responsable y democrática de los sistemas automatizados, pero deben ir acompañados de políticas de alfabetización digital y mecanismos de supervisión eficaces.
Lo que está en juego es la posibilidad de decidir quiénes somos en un mundo crecientemente mediado por códigos y algoritmos.
Allende López, M. (2020). Identidad digital auto-soberana. El futuro de la identidad digital: auto-soberanía, billeteras digitales y Blockchain. Inter-American Development Bank.
Álvarez, R. M. (2016). Derecho a la identidad. Biblioteca Jurídica Virtual de Investigaciones Jurídicas de la UNAM.
Ara Pinilla, I. (2007). El significado de la solidaridad como valor fundante de los Derechos Humanos. Julios Campuzano, A. (Ed.), Dimensiones jurídicas de la globalización. Dykinson.
Barona Vilar, S. (2024a). Justicia con algoritmos e Inteligencia Artificial. Derechos y Libertades, 51(Época II), 83-115. Disponible en https://roderic.uv.es/items/2a7f8e1d-9083-4628-8da7-51d8777c46dd/full
Barona Vilar, S. (2024b). Tecnología biométrica y datos biométricos. Bondades y peligros. No todo vale. Actualidad Jurídica Iberoamericana, (21), 298-331. Disponible en https://roderic.uv.es/items/a781508e-1344-4efb-8780-26b8a378bda7
Barranco Avilés, M. C. (2000). La teoría jurídica de los derechos fundamentales. Dykinson.
Batuecas Caletrío, A. (2022). El Derecho a la identidad y la identidad digital. Anuario de Derecho Civil, LXXV, 923-986. Disponible en https://www.boe.es/biblioteca_juridica /anuarios_derecho/abrir_pdf.php?id=ANU-C-2022-30092300986
Bobbio, N. (1993). Igualdad y libertad (P. Aragón Rincón, Trad.). Paidós.
Bobbio, N. (2023). Teoría general de la política (J. Fernández Durán, Comp.). Trotta.
Brasil. LEI Nº 13.709, DE 14 DE AGOSTO DE 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, 15 ago. 2018. Disponible en: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm
Brecha digital empresarial. Disponible en: https://www.oitcinterfor.org/digitalizacion /brecha-digital-empresarial
Canadá. Artificial Intelligence and Data Act (AIDA), Bill C-27, Digital Charter Implementation Act, 2022. Parlamento de Canadá, 2022. Disponible en: https://www.parl.ca/legisinfo/en/bill/44-1/c-27
Creemers, R. (2018). El sistema de crédito social de China: una práctica de control en evolución. SSRN Electronic Journal, 1-32. Disponible en: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3175792
Dastin, J. (2018). Amazon descarta herramienta secreta de reclutamiento con inteligencia artificial que mostraba sesgo contra las mujeres. Reuters. Disponible en https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/
De Asís, R. (2023). La identidad humana en la sociedad digital: identidad e identificación digital. González-Meneses, M. (Coord.) Los servicios de confianza en el medio electrónico y la identidad digital. Tirant lo Blanch.
De la Vega de Orduña, J. L. (2020). La presencia de la dialéctica de la autoconciencia en la sociedad civil: La libertad como reconocimiento. Studia Hegeliana: Revista de la Sociedad Española de Estudios sobre Hegel, 6(0), 29-42. Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=7797154
Desigualdad 4.0: a cerrar la brecha digital. Banco de desarrollo de América latina y el Caribe. Disponible en: https://www.caf.com/es/actualidad/noticias/desigualdad-40-a-cerrar-la-brecha-digital/
Díez-Picazo, L., & Gullón, A. (1989). Sistema de Derecho Civil (Tomo 1). Tecnos.
Eder Fernandes, M. (2021). El problema de la heteroformación de la identidad digital: fundamentos del principio de autodeterminación informativa. Revista Confluências, 23(2), 118-143.
El impacto de Joy Buolamwini en la regulación y la transparencia de la inteligencia artificial Disponible en: https://cyberwarmag.com/joy-buolamwini-regulacion-inteligencia-artificial/
Ferrajoli, L. (2001). El derecho como sistema de garantías. En P. Andrés Ibáñez & A. Greppi (Trads.), Derechos y garantías. La ley del más débil. Trotta.
Ferrajoli, L. (2011). Poderes salvajes. La crisis de la democracia constitucional (P. Andrés Ibáñez, Trad.). Trotta.
Garriga Domínguez, A. (2024). Los derechos ante los sistemas biométricos que incorporan inteligencia artificial. Derechos y Libertades: Revista de Filosofía del Derecho y Derechos Humanos, 51, 117-149. Disponible en https://e-revistas.uc3m.es/index.php/DYL/article/view/8585
Gete Alonso, M. (2017). Expresiones jurídicas del ejercicio de la identidad personal y de la autodeterminación. Espaço Jurídico: Journal of Law, 18(3), 661-678. Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=7145896
Giones-Valls, A., & Serrat-Brusteng, M. (2010). La gestión de la identidad digital: una nueva habilidad informacional y digital. BID. Textos universitaris de biblioteconomia i documentació, (24), 1-15. Disponible en https://bid.ub.edu/24/pdf/giones2.pdf
González Granado, J. (2022). De la identidad a la identidad digital soberana. González-Meneses, M. (Coord.), Los servicios de confianza en el medio electrónico y la identidad digital. Tirant lo Blanch.
Gordon, F. (2019). Reseña de Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, por Virginia Eubanks, Law, Technology and Humans 1(1), 162-164. Disponible en: https://lthj.qut.edu.au/article/view/1386/845
Hegel, G. W. F. (1996). Fenomenología del espíritu. Fondo de Cultura Económica.
Infante del Rosal, F. (2014). Hegel y la identidad como proceso. Eikasia. Revista de Filosofía, 58, 227-266. Disponible en https://philpapers.org/rec/ROSHYL-3
Institut für ökologische Wirtschaftsforschung. (2023). SustAIn Magazine - Issue 2 (p. 12). AlgorithmWatch, 1-44. Disponible en https://algorithmwatch.org/en/wp-content/uploads/2023/03/SustAIn-magazine-issue-2.pdf
Jasso-Peña, F., Gudiño Paredes, S., & Tamez Solís, J. P. (2019). Centennials, ciudadanos globales y digitales. Praxis, 15(1), 11-23. Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=7252847
Latorre Segura, Á. (1995). El desarrollo de la personalidad en la jurisprudencia del Tribunal Constitucional. En García San Miguel, L. (Coord.), El libre desarrollo de la personalidad. Artículo 10 de la Constitución. Universidad de Alcalá de Henares.
López Serna, L., & César Kala, J. (2018). Derecho a la identidad personal, como resultado del libre desarrollo de la personalidad. Ciencia Jurídica, 7(14), 65-76. Disponible en https://www.cienciajuridica.ugto.mx/index.php/CJ/article/view/284
Samuel, M. G. (2012). Reseña de The Filter Bubble: What the Internet Is Hiding from You, por Eli Pariser, InterActions: UCLA Journal of Education and Information Studies 8, (2), 1-3. Disponible en: https://escholarship.org/uc/item/8w7105jp
Merchán Murillo, A. (2021). Identidad digital Blockchain e Inteligencia Artificial: aspectos jurídicos de presente y futuro a debate. Ius et Scientia, 7(1), 183-203. Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=7986905.
Taylor, S.M. (2023). FRT in ‘Bloom’: Beyond Single Origin Narratives. Facial Recognition Technology and the Dark Side of Artificial Intelligence, Emre Bayamlioglu y Linnet Taylor, (edit) Cambridge, Cambridge University Press. Disponible en: https://www.cambridge.org/core/books/cambridge-handbook-of-facial-recognition-in-the-modern-state/frt-in-bloom/F2620A94B73D80E6212571F932A34940
Miranda Gonçalves, R. (2020). La protección de la dignidad de la persona humana en el contexto de la pandemia del Covid-19. Justiça do Direito, v. 34, 2. 2, 148-172.
Ocde Digital Economic Outlook 2024: perspectivas de futuro. Disponible en: https://www.telefonica.com/es/sala-comunicacion/blog/ocde-digital-economic-outlook-2024-perspectivas-futuro/
Prieto Sanchís, L. (2002). Derechos fundamentales. En Derechos fundamentales, neoconstitucionalismo y ponderación judicial. Palestra Editores.
Reglamento (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO, DE 13 DE JUNIO DE 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión. Disponible en: https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079
Rovira Viñas, A. (2006). Dignidad, autonomía, libertad y consentimiento informado. Revista de las Cortes Generales, 67, 7-54. https://revista.cortesgenerales.es/rcg/article/view/553
Sánchez-Riaño, V., et al. (2022). Centennials: La búsqueda del ser en un universo digital. IROCAMM - Revista Internacional del Mix de Comunicación y Marketing, 5(1), 9-20. https://revistascientificas.us.es/index.php/IROCAMM/article/view/18295
Santana Ramos, E. M. (2023). Los desafíos del libre desarrollo de la personalidad en el contexto migratorio. Dykinson.
Sartori, G. (1997). Homo videns: La sociedad teledirigida (A. Díaz Soler, Trad.) Tauro.
Tribunal Constitucional de España. (2022). Sentencia 67/2022.Disponible en: https://hj.tribunalconstitucional.es/es/Resolucion/Show/29003?utm_source
Unesco. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000381137
Valderrama Barragán, M. (2016). El devenir de la identidad digital: del yo proteico al yo identificado. PAAKAT: Revista de Tecnología y Sociedad, 6(11), 1-19. Disponible en https://www.scielo.org.mx/scielo.php?pid=S2007-36072017000100005&script=sci_arttext
Vidal Pino, O., et al. (2024). POSRED: Una propuesta de ecosistema tecnológico para la masificación de pagos electrónicos con tarjetas de moneda nacional. Revista Cubana de Transformación Digital, 5(1), 1-16. Disponible en https://rctd.uic.cu/rctd/article/view/254
Yeung, K. (2018). Algorithmic Regulation: A Critical Interrogation. Preprint accepted for publication in Regulation & Governance, 1-39. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2972505
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.
Emilia María Santana Ramos, (Las Palmas, Gran Canaria). Licenciada en Derecho por la Universidad de Las Palmas de Gran Canaria. Profesora Doctora acreditada como Titular de la Universidad, adscrita al Departamento de Filosofía del Derecho. Vicedecana del Grado en Derecho, Doble Grado en Derecho y Administración y Dirección de Empresas, Estudiantes e Igualdad. Facultad de Ciencias Jurídicas de la ULPGC. Directora de la Cátedra de Estudios Interdisciplinares de Igualdad y Prevención de Violencia. Representante del Consejo Canario de Igualdad de Género del Instituto Canario de Igualdad del Gobierno de Canarias de la Universidad de Las Palmas de Gran Canaria. Titular representante de la Universidad de Las Palmas de Gran Canaria en el Comité de Ética de los Servicios Sociales, de la Consejería de Bienestar Social, Igualdad, Juventud, Infancia y Familias del Gobierno de Canarias.
Cómo citar este artículo: Santana, E. M. (2025). El impacto de la inteligencia artificial en la construcción de la identidad y la autonomía personal. Islas, 67(211): e1598.
_______________________________________________________________
ISSN: 0042-1547 (papel) ISSN: 1997-6720 (digital)
http: //islas.uclv.edu.cu
Una de las metáforas más importantes de la obra hegeliana es la «La dialéctica del amo y el esclavo». En ella, Hegel advierte que el reconocimiento, si se presenta en términos desiguales, no solo no garantiza la libertad, sino que tanto el esclavo como el amo se verán afectados a la hora de alcanzar la libertad pretendida. El amo, al someter al esclavo, se priva del reconocimiento genuino, pues la validación que recibe proviene de alguien que no es libre. El esclavo, por su parte, se ve forzado a reconocer la superioridad del amo, pero su identidad queda relegada a la obediencia. En este juego de fuerzas, ambos quedan atrapados en una relación de dependencia que impide la verdadera autonomía. Ahora bien, solo cuando dos autoconciencias se encuentran en un plano de igualdad y se aceptan mutuamente como sujetos libres e independientes, el reconocimiento deja de ser una imposición unilateral para convertirse en una afirmación recíproca. En este punto, cada individuo no solo valida la existencia del otro, sino que, a través de esa validación, se confirma a sí mismo. (Hegel, 1996, p. 121).↩︎
Véase: La conexión entre el principio de la dignidad humana del artículo 10.1 de la Constitución española y el libre desarrollo de la personalidad, por Latorre Segura (1995, p. 81).↩︎
Es particularmente relevante la obra Ferrajoli en la que defiende la concepción del objetivo del derecho y sobre los límites estructurales que deben existir con relación al poder para proteger la autonomía individual y los derechos fundamentales. Destaca, además, la necesidad de garantías jurídicas con la protección de la autonomía personal.↩︎
Los centennials, conocidos como nativos digitales, cuentan con la característica de hiperconexión, priorizando la inmediatez frente a la valoración crítica y deliberativa. A diferencia de generaciones anteriores, su interacción en el espacio digital es más dinámica, lo que impacta directamente en su educación, la forma en que trabajan, consumen y se relacionan. (Jasso-Peña, et al., 2019, p. 13).↩︎