domingo, noviembre 24, 2024
InicioOpiniónCerebro: De la inteligencia biológica a la inteligencia artificial

Cerebro: De la inteligencia biológica a la inteligencia artificial

EDUARDO MORA BASART,

Miami, 8 de diciembre de 2050. El Uber flight comienza a descender en el taxipuerto del Mental Center. El flujo es incesante. Aunque el espacio es amplio para dar cabida a quienes llegan al lugar.

En una clínica ubicada en la última planta del edificio varias personas esperan. Uno aguarda instalarse un chip cerebral para fortalecer su memoria de trabajo; no falta quien pretende programarlo para sorprender a sus amigos de High School en la fiesta de fin de semana, interpretando acordes de guitarra de Jimmi Hendrix o hasta apropiarse del paquete de datos de Albert Einstein, necesario en el examen de física, sobre las ondas gravitacionales y su aporte a la teoría de la inflación cósmica.

A John, le preocupa un mal manejo de su información en algunos espacios o el ciberataque de Angelina, la nueva compañera de clases en la universidad, en quien percibe una atracción desmedida hacia él. Ella puede estar hackeando su cerebro.

Fue preocupante, que en el último encuentro expusiera con fluidez las ideas incluidas en su último trabajo de investigación, próximo a defender, sobre la antinomia “desarrollo social – capacidad tecnológica en el siglo XXI”.

Durante el tiempo de espera, se regodea en las imágenes holográficas de su Iphone 41, sumido en el comentario de opinión publicado en Diario las Américas, que analiza el tránsito de la inteligencia biológica a post – biológica, y los experimentos transhumanos de diseño mental en la comunidad de Marte para integrar las tripulaciones que partirán a los exoplanetas en busca de formas de vida o para colonizarlos.

A un siglo de existencia, la “paradoja de Fermi” carcome las neuronas de los científicos. Pervive la “hecatómbica” hipótesis de que toda civilización galáctica avanzada posee el potencial de exterminarse. Sentenciando, que no encontrar otras civilizaciones extraterrestres implica un trágico final para la humanidad.

Al entrar en la consulta, un mínimo procedimiento, desprovisto de aparataje, estableció “lazos neuronales” o una interfaz entre la computadora matriz y su corteza cerebral. Fue sorprendente para John, que parte de la información en la nube de su cerebro fue hackeada, extrayendo, sobre todo, aquella vinculada a la esfera de sus emociones.

Parece que Angelina se había tomado el asunto bien en serio…

El relato parece extraído de un libro de ciencia ficción; pero avizora un escenario cercano que resume la evolución cerebral y tecnológica de la única especie capaz de anticipar o planificar el futuro. Un proceso que tardó miles de años, alcanzando niveles de eficacia anatomo – fisiológicas que condicionaron el surgimiento de máquinas capaces de hacer tareas correspondientes a la inteligencia humana: definidas como inteligencia artificial (IA).

Los retos y posibilidades de la inteligencia artificial (IA) son ilimitados. Intentemos diseccionar aspectos del desarrollo del cerebro humano, el surgimiento de la inteligencia artificial (IA) y su confluencia con la inteligencia biológica en un contexto definido como “la cuarta revolución industrial”.

¿Bastó frotar el cerebro humano?
La humanidad vive fascinada por el cerebro humano. Es admirable su capacidad para la toma de decisiones desde una visión estratégica. Por eso, la estimulación de esas habilidades desde edades tempranas y las técnicas para reparar los daños cerebrales deben ser cotidianas. Devienen prácticas que definen los cambios en el proceso de humanización; siendo las dinámicas educativas la terapia más eficaz para intervenir cualquier degeneración etaria o neuropatológica.

El cerebro humano resume la evolución de compuestos orgánicos durante casi 4.000 millones de años. Edad aproximada de la vida en la tierra. Logrando una simbiosis de las redes neuronales, dotadas de un rendimiento imposible de alcanzar por los más sofisticados sistemas de inteligencia artificial (IA); aunque las potencialidades de la IA son ilimitadas en el tiempo.

La evolución del cerebro se detuvo hace 100. 000 años. Establecer una ruta crítica de los cambios es difícil, pues el órgano está conformado por tejido blando y, salvo que un cadáver pueda conservarse a bajas temperaturas, el cerebro se pudre y desaparece; aunque la neuro – paleontología intenta hacerlo.

Estudios recientes aseguran, que el aumento de tamaño, la reorganización cerebral y la plasticidad – moldeabilidad del cerebro por influencias externas – fueron los pilares de la evolución cerebral. Posibilita que revertamos una inmadurez al nacer superior a los animales más cercanos de la cadena biológica como orangutanes, gorilas o chimpancés; aunque un neonato duplica en tamaño corporal y cerebral a un simio.

Los animales en escalones superiores realizan acciones que pueden definirse como inteligentes; pero ninguna es comparable a nuestra especie y, quizás, son respuestas instintivas de adaptación al medio.

Teorías como la “hipótesis de la inteligencia social” y el “efecto Flynn” intentan explicar el tamaño cerebral y la inteligencia humana.

Humanización del cerebro
La “hipótesis de la inteligencia social” presenta la inteligencia, no sólo como resultado de la influencia genética, sino de interacciones y nexos de comunicación grupal para la búsqueda de soluciones.

El “efecto Flynn” es el ascenso anual del Coeficiente Intelectual (CI). Los primeros estudios fueron realizados por el psicólogo neozelandés, James Flynn, en 1938; prediciendo que esa tendencia debió ocurrir de modo continuo y lineal durante miles de años; aunque los análisis realizados por la Universidad Northwestern, EE. UU, del 2006 al 2018, usando una muestra de 400.000 personas, evidenció, por primera vez, una disminución cuyas razones se estudian.

Las causas del “efecto Flynn” pudieron integrar la mejoría paulatina de la calidad alimentaria, la reducción de los grupos familiares y el incremento de la complejidad ambiental. Por eso, como expone el doctor en Ciencias de la Universidad de Cambridge, el neurólogo Facundo Manes, el estrés actual, el uso de las nuevas tecnologías y la tendencia a violentar las horas de sueño tendrán un impacto nefasto en el futuro del cerebro.

Los nexos evolución biológica – dinámicas culturales definieron el proceso de desarrollo cerebral. Ellos condicionaron el lenguaje, la escritura, el uso del fuego, la práctica del bipedismo, la construcción de viviendas en los árboles, la expresión pictórica y la fabricación de herramientas de trabajo; sirviendo de bases para la adquisición de un pensamiento abstracto – simbólico, la autoconciencia del dolor, la alegría, la curiosidad, y de experiencias positivas y negativas.

Es difícil definir cuando el cerebro comenzó a ser humano. Aun cuando la tierra estuvo poblada desde el período glacial de Würm, hace 80. 000 años, por Homo sapiens dotados de un gigantoencéfalo. En el proceso de selección natural, los individuos aquejados de alguna patología vinculada a la inteligencia no podían sobrevivir: incluye 140 de los 1500 síndromes patológicos hereditarios.

Un estudio realizado en 2021 por “UK Research and Innovation”, defiende que ese gigantoencéfalo supera en los primeros años de vida en tres veces la producción de neuronas de sus parientes más cercanos. La elevada capacidad de proliferación de células madre neurales puede deberse al gen MIR3607; descubierto por un equipo de investigadores del Instituto de Neurociencias en Alicante, España (2021).

El desarrollo cortical y la neurogénesis son deficientes en algunas especies animales: se define como “pérdida secundaria”. Este fenómeno condiciona un tamaño inferior de la corteza cerebral y la potenciación de capacidades adaptativas propias.

Es evidente, que los humanos superamos al resto de los animales en inteligencia; al poseer, dicho a la manera del psicólogo suizo, Jean Paiget, “ la capacidad de adaptarse al entorno y resolver problemas de manera efectiva, a través de procesos cognitivos como la asimilación y la acomodación” o como reza una frase que se le atribuye: “es el arte de saber qué hacer cuando no sabemos qué hacer”.

Esa capacidad creativa, le permitió buscar soluciones innovadoras e integrar a su entorno civilizatorio cambios tecnológicos creados a imitación del cerebro humano o intentando superarlo.

Bases históricas de la actual revolución tecnológica
El hombre es consciente de su inteligencia abstracta, autoconsciente y transformadora. Los estudios e intentos de replicación cerebral son evidentes desde la antigüedad; como muestran el mito de Galatea o los autómatas en forma de trípodes que fabricó el Dios Hefesto en su fragua.

La literatura y el cine desde el siglo XIX están plagados de retos a la ciencia y la tecnología. Frankenstein (1821) de Mary Shelley, supuso una primera ventana a los trasplantes de órganos, el uso de marcapasos, desfibriladores o de métodos pioneros de inteligencia artificial (IA); y posicionó ideas como un futuro de soledad humana o el recurrente descontrol científico de sus engendros conducente a la autodestrucción.

En 1920 Karel Capek usa por primera vez el término robot en su obra teatral “R.U.R”.; y el dúo Clarke – Kubrick en la película: “2001, una odisea del espacio” (1968), disecciona los avances de la inteligencia artificial (IA) apoyado en la computadora HAL-9000. Pero el tema adquirió el paroxismo científico con el inglés Alan Turing.

El artículo “Computing Machinery and Intelligence” (1950), publicado en el volumen 59 de la revista “Mind”, convierte a Turing en uno de los padres de la IA. En él aborda la posibilidad de que una máquina pueda imitar el comportamiento de la mente humana, que deriva en el “Test de Turing” para medir su inteligencia; concluyendo que “una máquina será inteligente, cuando las respuestas a las preguntas de un operador humano no sean distinguibles de las que puede dar una persona”.

Los estudios fueron la base para el desarrollo de la «Dartmouth Summer Research Conference on Artificial Intelligence“ (1956), organizada por genios como Marvin L. Minsky y Claude E. Shannon, afianzando a la IA como campo de investigación e inició su tránsito desde la periferia al centro de la sociedad global.

Fue lamentable la muerte de Turing con sólo 42 años. En ese momento realizaba grandes aportes desde la cátedra de matemáticas en la Universidad de Manchester. El genio fue víctima de la sociedad inglesa por ser homosexual; situándolo ante la disyuntiva de elegir entre la cárcel o un tratamiento de castración química. Él murió el 7 de junio de 1954, presuntamente, al suicidarse mordiendo una manzana envenenada con cianuro -algunos afirman que inspiró en Steve Jobs el símbolo de Apple – o de manera accidental, como defendieron su madre Ethel Sara Stoney y Jack Copeland (2012) director del Archivo Turing de Historia de la Computación. Pero no es objetivo centrarnos en esa dimensión de la vida del hombre que salvó alrededor de 14 millones de personas en la II Guerra Mundial -según el filme biográfico “The Imitation Game”- al crear la máquina que descifró el código nazi Enigma.

En los años 90 del pasado siglo, el uso de unidades de procesamiento de gráficos (GPU), los diseños de algoritmos y las redes neuronales dinamizaron los estudios sobre inteligencia artificial (IA): poniendo fin al “Invierno IA” -término acuñado en analogía a invierno nuclear -. El surgimiento del dominio www o triple w, como lo conocen muchos, permitió que la información fuera concentrada para alimentar a la inteligencia artificial (IA); logrando avances que se extienden a la existencia desde 2015 de dominios en todo el mundo como .amsterdam, .osaka, .de (Alemania), .es (España), .mx (México), etc.

Un hito en la historia de la inteligencia artificial (IA) ocurrió en 2016. Como defienden Mariano Sigman y Pablo Bilinkis en “Artificial” – cuento los minutos para su lanzamiento por Amazon el 20 de febrero de 2024 – fue paradigmática la victoria 4 – 1 de AlphaGo, programa creado por Google Deep Mind, al campeón del mundo, Lee Sedol. Al retirarse de las competiciones en 2019, el surcoreano subrayó, que nunca podría ser el mejor jugador del mundo, dado el creciente dominio de la inteligencia artificial (IA): “una entidad que no puede ser derrotada”.

AlphaGo no sólo demostró su capacidad de análisis, sino dejó anonadado al mundo por la creatividad como atributo, al realizar en la segunda partida una jugada de valor -movimiento que fortalece el posicionamiento – aparentemente absurda o de principiantes que sentó las bases para su victoria.

La inteligencia artificial (IA) mostraba, no sólo su equidad o posibilidad para superar a los humanos en creatividad, sino su integración en la búsqueda de funciones de valor posicional que incrementan las probabilidades de triunfo. Fue evidente su habilidad para discernir entre los atributos eficientes e irrelevantes en la toma de decisiones, su velocidad de procesamiento, abstracción, cálculo, y generando ideas propias y originales.

Camino a la confluencia inteligencia biológica – inteligencia artificial (IA)
Existen tres pilares científicos para el desarrollo futuro de la inteligencia humana: el uso de la interfaz cerebro – máquina (BMI, por sus siglas en inglés), el funcionamiento de las neuronas como regeneradoras celulares y la integración de la inteligencia artificial (IA) a la cotidianeidad.

Una interfaz cerebro – máquina es la conexión del cerebro con una computadora. Nos permite procesar ondas cerebrales en tiempo real y traducirlas en acciones. Integra la inteligencia artificial, la neurociencia, el aprendizaje automático, el procesamiento de señales y la robótica.

En la gala inaugural de la Copa del Mundo de fútbol Brasil 2014, quedamos atónitos con la aparición del BRA-Santos Dumont 1 desarrollado por el neurocientífico de la Universidad de Duke, en Suiza, el brasileño Miguel Nicolelis, en el programa «Walk Again”. Allí el paciente parapléjico Juliano Pinto se puso de pie, caminó unos 25 metros en el campo de São Paulo y pateó la pelota -aun cuando por error de la transmisión televisiva solo se vieron 10 segundos en cámara -. Nicolelis usó señales EEG o de electroencefalogramas, que habían sido probadas con anterioridad en hospitales usando trajes robóticos para entrenar pacientes con lesiones de médula espinal.

A este tipo de estudios, se integró el descubrimiento por investigadores de la Escuela Universitaria de Medicina Duke, en Carolina del Norte, EE.UU, de las neuronas colin-acetiltransferasa en la zona subventricular del cerebro de roedores. Estas neuronas, les permite la neuro generación cerebral; y su activación en humanos puede revertir los daños ocasionados por enfermedades como el Parkinson y el Alzheimer.

Al identificar las redes de genes que regulan la regeneración celular, podemos manipular células normales, convertirlas en progenitoras y transformarlas en cualquier tipo que reemplace a las moribundas. El hallazgo supone la existencia después del nacimiento de una neurogénesis controlada por mecanismos propios de células madre neurales en interacción con señales conductoras extracelulares.

Estas investigaciones, además, condicionan el futuro aumento de la longevidad humana, si activamos mecanismos de regeneración celular que frenen el envejecimiento. Supondría un salto civilizatorio, imbricándose a la expansión de la ingeniería genética, la nanotecnología y la robótica -creando nanorobots que reparen células y tejidos del cuerpo -encaminándonos a validar las declaraciones del exingeniero de Google, Ray Kurzweil (2023), al aseverar, que en ocho años seriamos eternos.

No faltan las diatribas contra las declaraciones de Kurzweil; pero es inobjetable que nos acercamos a un cambio en los modelos de contacto intergeneracional; aun cuando sólo ocurra un progresivo incremento de la esperanza de vida, que puede extenderse hasta 150 años en las décadas venideras sobrepasando los vitoreados 120.

De la inteligencia artificial (IA) a la inteligencia artificial general (AIG)
La era de la inteligencia artificial (IA) comenzó. Piense en cuantas veces interactuamos con Siri de Apple, Alexa de Amazon, el asistente de Google, Waze, Netflix, Spotify y un largo etcétera; pero aún nos sorprenden historias narradas por películas como “Her” y “Ex – Maching”.

La IA sintetiza la ciencia de la computación, las matemáticas avanzadas y la lógica. Se manejan tres etapas de la IA: 1) inteligencia artificial estrecha (ANI), 2) la inteligencia artificial general (AGI), 3) y la súper inteligencia artificial (ASI).

En la fase actual (1), la IA es capaz de resolver tareas – ChatGPt 3 y 4 (Generative Pre – trained Transformer) – y establecer modelos predictivos para componer textos e imágenes: aunque sin entender el mundo. Estos ejemplos, representan inteligencias artificiales (IA) definidas como débiles, al especializarse en tareas específicas y no poseer conciencia o autoconciencia.

El análisis de datos – capital por excelencia – les permite a los sistemas de inteligencia artificial (IA) aprender habilidades que se construyen sobre redes neuronales o sistemas matemáticos. Los centros de investigación neurocientífica pretenden en esta etapa transitar desde la inteligencia artificial (IA) a una inteligencia artificial general (AGI).

Una AGI está situada en un estadio superior; posee la capacidad de aprender y aplicar el conocimiento en diversas tareas; puede hacerlo en una extensa gama de problemas como los humanos y, aunque es objeto de polémicas, niveles de conciencia y autoconciencia. Esta inteligencia, definida como dura por procesar y gestionar millones de datos e impulsos simultáneos, puede superarnos; pero para el pionero de la IA en España, Ramón López Mantara, lograr la AGI “es comparable a explicar el origen de la vida, el origen del universo o conocer la estructura de la materia”.

Los avances de la IA se soportan en una potente base tecnológica. En el evento “Supercomputing 2023”, la fabricante líder de tarjetas de video (GPU), chips de computadora y hardware computacional, “Nvidia”, presentó “JUPITER”, la supercomputadora de inteligencia artificial más potente del mundo, con un rendimiento de 90 exaflop para el entrenamiento de IA y 1 exaflop para aplicaciones de alto rendimiento (HPC) – 1 exaflop equivale a mil billones de operaciones por segundo (10 ^ 18) -.

En “la falacia de Los supersónicos”, el historiador Michael Bess defiende, que no es probable en un futuro cercano, a la manera de estos dibujos animados y “Star Wars”, una civilización humana rodeada de IA ajena a microchips o mejoras cerebrales significativas. Para Elon Musk, “podemos impedir quedarnos obsoletos en la interacción con la inteligencia artificial (IA), sometiéndonos “a algún tipo de fusión de la inteligencia humana y la inteligencia maquinal”.

Los microchips tendrían ventajas comparativas en una lucha contra las neuronas; aunque los humanos, aún poseemos reservas de inteligencia en el desarrollo de columnas neuronales mejoradas por la nanotecnología y la fecundación in vitro. Por eso, no estamos alejados del punto de “singularidad tecnológica” – derivado de la matemática, la física y en especial del término agujero negro – en que una súper inteligencia artificial (ASI) iguala o supera a la humana.

De ocurrir, podría sentar bases sólidas para la integración de la inteligencia biológica con inteligencias de base sintética, como vaticinó el filósofo e historiador israelí, Yuval Noah Harari, quien alertó en su obra “Homo Deus” (2015) , que los proyectos prioritarios en el siglo 21 serán aquellos orientados a proteger a la Humanidad y al Planeta de los peligros inherentes a “nuestro propio poder”.

La Directora del Grupo de Inteligencia Artificial, Mente y Sociedad en la Universidad de Connecticut, Susan Schneider, es partidaria de los principios “transhumanistas” que presentan a los humanos del futuro como “portadores de una inteligencia muy avanzada, casi inmortales, poseyendo amistades profundas con criaturas de IA y características corporales elegidas”. Pero no elude las “realizaciones perversas” o aquellas situaciones donde la IA no nos hace la vida feliz, causando sufrimiento, muerte o la explotación de otros humanos.

¿Ábrete sésamo o caja de Pandora?
Fue paradigmático el despido de Sam Altman como CEO de OpenAI. La noticia conmocionó a la comunidad científica y a Wall Street. Un momento parangonable al día en que Steve Jobs fue expulsado de Apple en 1985.

El drama de Silicon Valley, en 2023, petrificó a los medios de prensa globales, por asociarse a una carta desconocida donde, supuestamente, se denuncia la existencia del proyecto Q* – se pronuncia en inglés Q Star – que acerca a la empresa al logro de la inteligencia artificial general (IAG). De ser cierto que Q* razona como un humano sería trascendente; aun cuando se asegure, que el nivel de análisis matemático de la aplicación emula con un estudiante de enseñanza elemental.

La existencia de la IAG nos conduce a una interrogante: ¿qué sistemas debieran dotarse de ella y cuáles no? Obligar a una máquina consciente a servirnos es una forma de esclavitud; por tanto, la “ingeniería de la consciencia” deberá trazar rutas críticas de acción desde perspectivas ético -tecnológicas. Imagine una etapa histórica con un régimen de esclavitud de las máquinas, que transite hacia la liberación tecnológica destruyendo la especie humana.

En su libro “Why Machines Will Never Rule the World: Artificial Intelligence without Fear”, el filósofo Barry Smith, sostiene, que la IA no posee las competencias para gobernar el mundo. Según él, en términos prácticos las actuales investigaciones no avizoran que pueda emular con el funcionamiento completo del cerebro humano.

Los naturalistas biológicos niegan la posibilidad de que una máquina sea consciente, al depender de la naturaleza química de los sistemas biológicos; pero los “tecnoptimistas” siguen hurgando en la ciencia cognitiva. Defienden que el cerebro es una máquina procesando continuamente información y, por tanto, actúa como una computadora. Desde su visión “computacionalista” del cerebro, al pensamiento no lo define el sustrato, sino la dinámica de funcionamiento y, por tanto, la IA puede alcanzar la dimensión consciente.

El futuro inminente estará signado por la invasión en todas las esferas de la IA. En la actualidad ChatGPT – la app con la expansión más dinámica en la historia de internet – se integra a la sociedad; piense, por ejemplo, que los sistemas educativos aún dirimen el uso eficaz de la tecnología digital y ya deben pensar en cómo implementar la IA en sus rutinas pedagógicas. Urge prepararnos para el uso de novedosos modelos de comunicación, gestión de recursos humanos, toma de decisiones, resolución de problemas, un mercado laboral turbulento, y hasta a cambios sociales sorprendentes, donde será usual convivir con “Deeepfake” – videos falsos – que pueden incluir desde una imagen artificial de Salvador Dalí como guía en un museo de arte hasta denuncias de las actrices Natalie Portman y Emma Watson, al sustituir su rostro por figuras de la industria del cine pornográfico; al decir de Mariano Sigman – Pablo Bilinkis, si en el contexto de la II Guerra Mundial la lucha por dominar el escenario atómico fue medular, a este siglo lo definirá la capitalización de la inteligencia artificial (IA) y la defensa de la privacidad.

En su obra “Superinteligencia”, el profesor de la Universidad de Oxford, Nick Bostrom, vaticina con optimismo el futuro de la economía en tiempos de inteligencia artificial (IA): “una explosión de la inteligencia puede convertir al mundo en 4.8 veces más rico en el 2050; cifra que se multiplicaría por 34 en el 2100”. Sin embargo, Goldman Sachs profetiza, que “la inteligencia artificial generativa podría dejar sin empleo a 300 millones de trabajadores a tiempo completo en Estados Unidos y Europa”; aunque surgirán nuevas brechas laborales en especialidades como la ciencia de datos y la programación de sistemas de IA.

Los humanos transitamos por la era de la informática o era digital, según el historiador Louis Hyman, y el aclamado aumento de la productividad del trabajo deviene utópico. Puedo testificar las inveteradas polémicas por el uso de las computadoras como máquinas de escribir durante años: fenómeno que debe trascender ChatGPT.

Estableciendo una analogía con la cadena de montaje del Modelo T de Henry Ford, seremos capaces de desarrollar líneas de ensamblaje de datos usando la subdivisión de problemas analíticos complejos en pequeños fragmentos. Iniciamos una era de aumento de la productividad, disminución de errores humanos, diagnósticos más precisos, tratamientos personalizados y análisis predictivos superiores.

En marzo de 2023, el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, el director ejecutivo de la firma Stability AI, Emad Mostaque, e investigadores de la firma DeepMind – el grupo sumó 1000 suscriptores – hicieron pública una carta a través de la ONG “Future of Life Institute”, donde pidieron una pausa en el desarrollo de la tecnología de IA hasta que “estemos seguros de que sus efectos serán positivos y sus riesgos manejables”, asegurando en su cierre: “Disfrutemos de un largo verano de la IA, en lugar de precipitarnos sin preparación hacia una caída”.

El futuro de la civilización humana dependerá de su capacidad para superar los retos. En un camino, donde a la ética corresponderá un titánico papel regulando la inteligencia artificial (IA); un escenario social que prefiero avizorar apegado al progreso o como defiende Didem Un Ates: “donde la inteligencia artificial, el machine learning y la robótica, nos obligarán a ser más humanos”.

*El autor es profesor, Máster en Prevención e Intervención Psicológica en Problemas de Conducta en la Escuela con especialidad en Terapia Cognitiva Conductual, Universidad Internacional de Valencia, España (2022), y Especialista en Análisis Aplicado de Conducta (ABA), Universidad de Cádiz, España (2023).

Fuente: Diario Las Américas

ARTICULOS RELACIONADOS

REDES SOCIALES

585FansMe gusta
1,230SeguidoresSeguir
79SeguidoresSeguir

NOTICIAS POPULARES