Mostrar Mensajes

Esta seccin te permite ver todos los posts escritos por este usuario. Ten en cuenta que slo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.


Mensajes - 15004125-2-Iván-16

Pages: [1]
1
Buenos días, Presidencia y delegados.

Me resulta de gran de interés la línea de debate propuesta por la delegada Alba del Complejo Preuniversitario Mas Camarena de Valencia, pues es un tema que pasa muy inadvertido en la sociedad actual.

Diego Navarro Bonilla argumenta en su estudio Espionaje, seguridad nacional y relaciones internacionales que el big data (sistema empleado en la Inteligencia Artificial para lograr un mejor funcionamiento) ha ampliado el alcance del espionaje tal y como lo conocíamos.

Ante esto, se deben tomar medidas para respetar la privacidad y reducir dicho espionaje, logrando así disminuir las injerencias en las democracias actuales que expuso la mencionada delegada.

Asimismo, me gustaría llevar este tema a un ámbito más pequeño, y reflexionar acerca de cómo las empresas (aparte de a su competencia) espían a sus empleados.

Según el periódico El Confidencial, los grandes negocios controlan el tiempo de los trabajadores e incluso les graban sin su consentimiento. Estos hechos implican obviamente una grave violación a los derechos humanos y se deben tomar medidas al respecto con urgencia.


Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.

Fuentes:

https://www.elconfidencial.com/empresas/2023-06-13/monitorizacion-espanoles-trabajo_3658410/

https://ojs.ehu.eus/index.php/ceinik/article/download/15123/13279

https://opensistemas.com/inteligencia-artificial-y-big-data/#:~:text=La%20IA%20aprovecha%20el%20Big,predictiva%20y%20muchas%20otras%20aplicaciones.

2
Buenos días, Presidencia y delegados.

Quote
En el caso de implementar la IA en este tipo de actividades, tendría que ser obligatorio hacer activamente consciente al consumidor de cuál será el trato que reciba.

El periódico Semana explica la novedosa función que la red social TikTok ha implementado con el objetivo de que el consumidor sepa si el contenido que está viendo ha sido (o no) generado por una Inteligencia Artificial. Esto va muy de la mano con lo que sugirió la delegada Ángela del IES Bernardo de Balbuena, y creo que deberíamos tomar esta empresa como ejemplo para hacer obligatorio el hacer saber al cliente si está siendo atendido por una IA o está viendo algo generado por una IA. Esto nos permitiría seguir avanzando con la IA (pues no estaríamos renegando de ella) pero sin hacer un uso poco ético de ella.

Quote
Psicólogos, jueces, médicos… son oficios que, sin ese “componente humano” que se mencionaba en la anterior cuestión, no pueden existir. Son necesarios el razonamiento, la creatividad, la empatía, la responsabilidad y el control de los actos propios.

Por ello es de gran urgencia que se ponga fin a la Inteligencia Artificial siendo partícipe en cualquier de estos trabajos. No solamente supone una sustitución del ser humano y nuestra parte ética, sino que supone un riesgo, como indica Infobae, para el consumidor en ámbitos terapéuticos.

Quote
Considero que es de vital importancia el conocer qué datos se han invertido en la programación de cada IA, puesto que, si estos están sesgados, pueden influir negativamente en todo tipo de colectivos y por tanto, no sería moralmente aceptable. Para ello, es necesaria una transparencia por parte de las empresas que no siempre está (como en el caso de OpenAI, la creadora de ChatGPT).

La Inteligencia Artificial nos puede ayudar a avanzar de formas que nunca antes habíamos imaginado, pero para eso, los clientes y empresas necesitan usarla de forma ética. En esta ética, debe estar incluida la transparencia de la empresa para evitar cualquier dilema moral y porque actualmente el conocimiento de IA que tenemos es muy pequeño, y si las empresas proporcionan datos sobre su funcionamiento, podremos llegar a entenderla mejor y hacer un uso más ético de ella. Asimismo, se deben eliminar los sesgos pues como afirma "Cristina Aranda, experta en lingüística computacional y cofundadora de BigOnion y WomanTech, se producen sesgos en diferentes áreas que debemos hackear." Estos sesgos, explica, son dañinos y perjudiciales para muchos colectivos que forman parte de la sociedad actual. Si queremos avanzar de forma ética, ¿por qué seguir permitiendo estos sesgos que discriminan y dejan atrás a determinados sectores sociales?

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.

Fuentes:

https://www.semana.com/tecnologia/articulo/tiktok-estrena-nuevas-funciones-para-detener-a-los-que-quieren-ser-tendencia-usando-la-ia/202323/

https://www.infobae.com/salud/2023/05/02/el-chatgpt-como-psicologo-advierten-sobre-el-riesgo-de-usar-ia-en-reemplazo-de-la-terapia/

https://www.mujerhoy.com/actualidad/inteligencia-artificial-machista-racista-como-evitar-peligros-ia-20230627114339-nt.html

3
Zona de debate de la Comisión / Re: Tormenta de ideas
« en: Octubre 11, 2023, 09:20:24 pm »
Buenas noches, Presidencia y delegados.

Julian Huxley es considerado el padre del transhumanismo, pues afirmó que "el desarrollo de la Inteligencia Artificial General provocará una aceleración exponencial del progreso humano en todos los niveles."

"Las tecnologías emergentes nos ofrezcan una prolongación extrema de la vida, contribuyan a acabar con la escasez de recursos y con la enfermedad e incluso mejoren nuestra vida mental, en caso de que así lo deseemos.", afirma la filósofa Shcheiner manifestando su apoyo a esta corriente científica y filosófica.

A raíz de esto, me planteó lo siguiente: ¿Hasta qué punto estamos dispuestos a renunciar de nuestras características como humanos para una vida eterna? ¿Debemos olvidarnos de las capacidades intrínsecas que poseemos y seguir avanzando sin mirar atrás?.

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.

4
Buenas tardes, Presidencia y delegados.

Me ha resultado de gran interés el punto de vista aportado por la delegada Alba del Complejo Preuniversitario Mas Camarena, y en líneas generales, he de decir que estoy de acuerdo. Por ello, y para llegar a una propuesta en común, me voy a referir directamente a su intervención.

Quote
También mejora la experiencia del cliente mediante chatbots, soluciones de autoservicios, asistentes de IA y publicidad interactiva.

Ya evidencié en anteriores intervenciones el caso de la empresa de salud mental Koko que hizo uso de un chatbot para, supuestamente, mejorar la experiencia del cliente. Lo curioso del caso es que el cliente no era conocedor de esta situación y en general quedó descontento con el servicio de este sistema. Por ello, debemos de pensar un modo de regular su uso asegurando los dos siguientes puntos: que el cliente sepa que está siendo atendido por una máquina/IA y que en ningún momento la IA puede dañar la experiencia del cliente. Por ello, les pregunto: ¿cómo estructuraríamos esta legislación para la regulación de la IA en este caso?

Quote
Si todas las agencias de publicidad y los publicistas utilizan las mismas herramientas, la originalidad será simplemente una apariencia.

Esta afirmación es totalmente cierta, pues la IA en este caso disminuiría radicalmente la originalidad de un trabajo en el que el pilar fundamental es la originalidad. Por ello, debería regularse su uso pero no prohibirse, pues creo que como fuente de inspiración y ejemplo es muy útil, pero en el momento donde hay un plagio y no hay originalidad, hay que intervenir. Y de nuevo, les pregunto: ¿cómo garantizamos esto?

Quote
En este caso puede aplicarse lo mismo: creo que integrar de manera total la IA en nuestra sociedad y sobre todo en las familias es poco ético, ya que perderían la capacidad de desarrollar sus propias opiniones o ideas puesto que estaría basado en lo que te dice una maquina y no por tus propios conocimientos. Por esto mismo se debería regular para hacer un uso proporcionado. El plagio es una consecuencia muy grave de esto, tal como señala el Informe de la Comisión al comentar si se considera mentir en un examen o entrevista.

No considero que integrar la IA sea poco ético, porque significa el progreso de nuestra sociedad y nuestra capacidad de adaptación. Sin embargo, sí que encuentro que el plagio es algo a lo que se puede recurrir y elimina directamente el pensamiento crítico. Debería existir una legislación al respecto, según mi perspectiva, donde se indique cómo citar si sacamos información de una IA, qué se considera plagio de IA… y prohibir el plagio directo sin citar.

Quote
Es cierto que las cifras de la brecha digital tienen a casi medio millón de valencianos que no ha entrado nunca en internet, teniendo la mitad de los excluidos más de 75 años

Por ello, debemos poner nuestros esfuerzos en acercar recursos públicos y educación tecnológica a todos los colectivos de la sociedad que no puedan acceder a ellos o no posean el conocimiento necesario. Porque si queremos progresar con la IA, no podemos dejar a nadie atrás.

Hablando específicamente de las personas de la tercera edad, es indudable el hecho de que a lo largo de la historia nos han transmitido su sabiduría. De abuelos a nietos, el conocimiento se traspasaba. Por este motivo, ahora que somos nosotros los que poseemos esta sabiduría, lo justo es que les enseñemos. Es muy duro dejar atrás a un colectivo que históricamente nos ha aportado tanto.

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.


5
Zona de debate de la Comisión / Re: Restricción al acceso de la IA
« en: Octubre 03, 2023, 12:46:53 pm »
Buenos días, Presidencia y delegados.

Me gustaría brevemente responder a la delegada Alba del Complejo Preuniversitario Mas Camarena de Valencia, pues mi postura ya fue debidamente evidenciada con numerosos estudios en mi anterior intervención.

Quote
Imagínense a niños y adolescentes que no tienen una educación informática más allá de subir fotos a redes sociales.


Me parece un cliché que el pensamiento popular sea que los jóvenes lo único que saben es subir fotos a las redes sociales. No le voy a negar que una parte sí es hacer uso de las redes sociales para subir contenido multimedia, pero no es lo único que los jóvenes saben hacer.

De hecho, la Generación Z es la generación, según el periódico Noro, que menos fotografías suben a las redes sociales. Usan la tecnología para informarse del mundo actual, para investigar y cultivar el pensamiento crítico al que usted se refiere…

Asimismo, me gustaría que tanto la línea planteada como mi intervención al respecto corresponden al tema de la restricción de la IA, no de las redes sociales. Y si son a día de hoy los jóvenes los que están desarrollando la Intelignecia Artificial al acceder a estos novedosos grados universitarios, ¿creen aún que la única educación que tienen es subir unas publicaciones a su red social favorita?

Quote
Si pueden robárselo a empresas con toda la seguridad que poseen, imagínense a niños y adolescentes

En primer lugar, es el adulto el que debe en primer lugar garantizar un sistema que disminuya las probabilidades de robo digital (contraseñas seguras, no dar datos de información personal…) Asimismo, el papel del niño quedaría relegado en tener cuidado en los anuncios falsos de Internet que tienen el propósito de coger datos de forma ilegal. ¿Y cómo evitar esto?, se estarán preguntando. Pues bien, la respuesta es siempre educar y nunca prohibir, porque prohibiendo la tecnología prohibimos que desarrollen una competente educación en las IAs.

Quote
Para eso es necesario que desde casa y centros educativos se inculque el pensamiento crítico


¿Cómo quiere fomentar un pensamiento crítico si los jóvenes no tienen acceso a las nuevas tecnologías? Si quieres enseñarle cómo coser a alguien, necesitarás aguja e hilo. Si quieres enseñar a jugar al fútbol a alguien, necesitarás balón y portería. Y, por ello, si queremos enseñar a alguien a utilizar las IAs de una forma crítica y ética, necesitaremos que los jóvenes tengan un seguro acceso a la tecnología, pero que cuenten con este acceso.

Quote
La consecuencia más conocida de la falta de control parental/centros educativos es el bullying. La salud mental es algo que tiene mucha relación con esta cuestión: la libertad de expresión debe tener en cuenta el derecho al honor, por lo que es necesario regular para saber qué hace una persona de cualquier edad en Internet. No pueden insultar o difundir bulos porque es dañino.

Puedo llegar a comprender culpar a las redes sociales como escenario del bullying, ¿pero cree usted que es justo culpar a una víctima de bullying por la falta de control parental que tiene? Porque lo que expone es que la falta de control parental es lo que deriva en el bullying, una afirmación que pone en el foco de la culpa del acoso a la víctima, ya que según usted si la víctima contase con control parental no sucedería está terrible situación. ¿Cree que el mecanismo para solventar el bullying es sugerir control parental o una educación psicológica, materia de la comisión 1?

Quote
Si no tienen principio, ética o moral en el mundo real, en el digital tampoco

¿Está diciendo que los jóvenes no cuentan con un principio ético y moral? Como ya mencioné en mi anterior intervención, debemos centrarnos en la ética y en la educación ética para trasladarlo al mundo digital a través de la educación. ¿Cómo espera que tengan un principio ético y moral si no sugiere una educación para solventar esto?

Lo que usted se ha referido durante su intervención es al peligro de las redes sociales y el bullying, cuando en mi anterior intervención expuse los datos necesarios para demostrar cómo la Inteligencia Artificial no es maligno para los jóvenes si reciben la educación necesaria. Por ello me es de gran interés conocer sus propuestas sobre la educación y restricción en las IAs.

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.


6
Zona de debate de la Comisión / Re: Restricción al acceso de la IA
« en: Octubre 01, 2023, 09:03:28 pm »
Buenos días, Presidencia y delegados.

A pesar de que me resulta de gran interés el tema propuesto por la delegada Alba del Complejo Preuniversitario Mas Camarena en Valencia, me posiciono totalmente a favor de garantizar el libre acceso de las Inteligencias Artificiales a todos los colectivos de la sociedad, pues cuando restringimos un conocimiento o herramienta a una parte de nuestra sociedad deriva en una evolución desigual y en una fragmentación social.

Según el estudio El problema de la prohibición en la ética realizado por Roberto Gutiérrez Laboy, Doctor en Filosofía y Letras por la Rutgers University New Brunswick, debemos diferenciar entre dos conceptos clave: moral y ética.

La moral es la acción (praxis) mientras que la ética es la reflexión (teoría), y es desde esta última y a través de la moral con la que debemos elaborar propuestas para garantizar una sociedad ética, justa y cohesionada.

Asimismo, y con respecto a la primera pregunta, si restringimos las IAs a los más jóvenes aumentaremos de una manera drástica la brecha digital, que según la Cruz Roja Española debe definirse como “desigualdad en el acceso, uso o impacto de las Tecnologías de la Información y la Comunicación (TIC) entre grupos sociales”. Por ello, si prohibimos la tecnología a este colectivo, lo que haremos será distanciarles más de esta nueva realidad.

Los jóvenes de la Unión Europea deben comprender y tener todas las herramientas necesarias para entender el mundo en el que se encuentran, pues si no cuando sean más mayores se encontrarán perdidos y no podrán actuar de una manera prudente y ética.

Esto mismo se expone también en El Diario de la Educación en su artículo “Prohibir no es educar, es coaccionar”, donde se exploran cuestiones como si no es un error desaprovechar las oportunidades que ofrecen las nuevas tecnologías para el aprendizaje o si esto no sería vivir de espaldas al presente y al futuro. Esto mismo es la justificación que di en el anterior párrafo: estamos alejando a los más jóvenes de la realidad que todos nosotros estamos forjando, donde posicionamos a las Inteligencias Artificiales como protagonistas, cuando deberíamos hacer todo lo contrario.

Con respecto a la segunda, y en calidad de los argumentos ya evidenciados, considero que prohibir en vez de educar será, inevitablemente, contraproducente como sociedad por dos claros motivos.

En primer lugar, es un hecho verdadero que la curva de aprendizaje (es decir, la facilidad con la que aprendemos) disminuye con la edad. Esta idea se sustenta en el estudio realizado por María Jesús Benedet, Rosario Martínez Arias y María Angeles Alejandre de la Universidad Complutense de Madrid (UM) bajo el título Diferencias con la edad en el uso de estrategias, en el aprendizaje y en la retención. Por ello, si alejamos a través de la prohibición el momento donde eduquemos a los más jóvenes, estos, progresivamente, se toparán con más dificultades a la hora de aprender.

Además, según la Universidad Eafit, la naturaleza curiosa del ser humano hace que queramos investigar absolutamente todo, y más en específico, lo que se nos ha sido prohibido. Por este mismo motivo, debemos ofrecer todos los recursos necesarios para que los jóvenes puedan cultivar esa parte creativa e indagadora, cualidades intrínsecas del ser humano, de una forma apta para su edad.

Sin embargo, con estas razones no quiero decir que un niños de educación infantil o de los primeros años de educación primaria deban tener paso a las Inteligencias Artificiales, pero sí desde el momento en el que tengan acceso a cualquier dispositivo. En el momento en el que haya esta oportunidad (ya sea ordenador familiar, dispositivos del centro, recursos bibliotecarios…) no podemos evitar que los jóvenes indaguen en este nuevo mundo a pesar de que exista una prohibición impuesta. Por eso mismo deben tener las herramientas desde antes de que tengan acceso a la tecnología, y para que ante la imposibilidad de poder frenarlos, sepan cómo navegar de un modo seguro y ético.

En último lugar, y haciendo referencia a la última pregunta, la ética debe estar presenten en la educación que los jóvenes han de recibir. Un ejemplo de una propuesta de educación es el famoso Consenso de Beijing realizado por La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), donde se fomenta el aprendizaje y el apoyo en la docencia de las Inteligencias Artificiales. Y es precisamente esta línea la que deberíamos seguir para legislar la educación de las IAs en la Unión Europea. Porque sin esta educación tan necesaria, dejaríamos atrás a diversos colectivos de la sociedad, en lugar de, en una sociedad ética y cohesionada, avanzar unidos.

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.

Fuentes:

https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwiE3urAndWBAxUKUaQEHZqMCFEQFnoECBwQAQ&url=https%3A%2F%2Fdialnet.unirioja.es%2Fdescarga%2Farticulo%2F3834260.pdf&usg=AOvVaw2pFb1wrvv0QzmroJImjzvO&opi=89978449

https://www2.cruzroja.es/web/ahora/brecha-digital#:~:text=La%20brecha%20digital%20hace%20referencia,g%C3%A9nero%2C%20de%20edad%20o%20culturales.

https://eldiariodelaeducacion.com/2018/10/08/prohibir-no-es-educar-es-coaccionar/

https://www.um.es/analesps/v14/v14_2/02-14-2.pdf

https://www.eafit.edu.co/ninos/reddelaspreguntas/Paginas/por-que-nos-gusta-lo-prohibido.aspx

https://unesdoc.unesco.org/ark:/48223/pf0000368303






7
Zona de debate de la Comisión / Re: Tormenta de ideas
« en: Septiembre 26, 2023, 09:03:39 pm »
Buenas tardes, Presidencia y delegados.

El informe inicial de la Comisión de Inteligencia Artificial en la era digital presenta en su introducción el siguiente tema:

"Desde un punto de vista empresarial y económico, sustituir a las personas por cierto tipo de máquinas aumentaba la productividad y, con ello, el beneficio de las empresas. Desde el punto de vista social, el despido de aquellos cuyas tareas podía hacer una máquina ocasionaba pobreza e incertidumbre laboral, traslados poblacionales, cambios en las tendencias de estudios y de profesiones más demandadas."

Me resulta muy interesante reflexionar sobre la sustitución del trabajo por tanto máquinas como Inteligencias Artificiales y los límites éticos que tiene esta acción. Más allá de la cantidad de empleos que se encuentran en peligro de sustitución, que según El Mundo son más de 300 millones, debemos analizar todos los inconvenientes que se reflejan en los consumidores.

Poniendo un ejemplo, la empresa norteamericana de salud mental llamada Koko decidió implementar un novedoso sistema donde las consultas de los consumidores fueren resueltas por un chatbot en vez de un trabajador. Una vez los usuarios se dieron cuenta de este hecho, dejaron de usarlo. Este caso me lleva inevitablemente a plantearme lo siguiente: ¿Es ético que los consumidores no reciban un trato humano? ¿Está la Inteligencia Artificial lo suficientemente preparada para hacer el trabajo de psicólogo, un oficio que destaca por habilidades más emocionales? ¿Hasta qué punto es ético maximizar los beneficios de la empresa disminuyendo, a su vez, el beneficio de los clientes?

Asimismo, considero muy provechosas todas las ventajas que la tecnología nos ha proporcionado en trabajos de alto riesgo, como la minería, pues los humanos podemos, cada vez más, dedicarnos a trabajo donde la seguridad esté asegurada, una medida que desde el punto de vista de ético es muy positiva. A la hora de legislar el papel de la Inteligencia Artificial en el mundo laboral, ¿debemos restringir el trabajo a solamente los humanos, favoreciendo más la ética y nuestra parte más humana, a solamente las máquinas, favoreciendo el beneficio, y por ello, el crecimiento económico y de países, o buscar un equilibrio entre ambos?

Con respecto a esta última opción, he encontrado un artículo muy interesante sobre el "equipo humano-robot", un novedoso sistema de trabajo que se podría implementar donde se combinan las ventajas de ambos para intentar aunar el beneficio y la emoción.

Sin embargo, ¿debemos ponerlas equilibradas en la balanza o una debe pesar más que la otra? ¿Resultaría de nuestro favor priorizar la ética o el beneficio, o a pesar de no recibir el máximo rendimiento, potenciar estas dos características por igual?

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.

Fuentes:

https://www.elmundo.es/tecnologia/2023/03/29/64248311fdddffab0b8b45cf.html

https://www.latercera.com/opinion/noticia/columna-de-susana-sierra-urgencia-de-los-dilemas-eticos-de-la-inteligencia-artificial/MJQZQKDDINDLFJWGQKSOH2U2NY/

https://www.cryptopolitan.com/es/robot-humano-una-alternativa-etica-a-la-ia/


8
Zona de debate de la Comisión / Re: Tormenta de ideas
« en: Septiembre 26, 2023, 02:44:51 pm »
Buenos días, Presidencia y delegados.

Me gustaría realizar un breve comentario acerca de la Inteligencia Artificial como fuente de información, distinguiendo dos enfoques donde la ética se encuentra en debate.

En primer lugar, a pesar de las innumerables ventajas que nos ha aportado la evolución tecnológica, la brecha digital nos está distanciando cada vez más como sociedad. ¿Es ético que ahora restrinjamos la evolución solamente a aquellos que tengan los recursos y conocimiento necesarios para avanzar?

Desde mi punto de vista, hay dos colectivos que a día de hoy se ven con dificultades para acceder a la Inteligencia Artificial como fuente de información: las personas de la tercera edad y las familias con escasos recursos económicos. Según Eurostat, la población mayor de 65 años en la Unión Europea es de un 21,1%, que representa más de una quinta parte de sus habitantes mientras que una décima parte de los hogares de la UE, según el Instituto Nacional de Estadística, no tienen acceso a Internet.

El libre acceso a la información debe ser libre e igualitario, por lo que debería existir una legislación que eduque y acerque estos recursos a los sectores más desfavorecidos, para que todos podamos avanzar por igual en esta era digital.

En segundo lugar, debemos aceptar a la Inteligencia Artificial como un recurso de ayuda y de información, como actualmente lo hacemos a los libros, manuales, enciclopedias, fuentes de Internet… Y al igual que se han realizado con estas, debe legislarse su uso y requerir una citación adecuada para proteger los derechos de autor.

Si todos nosotros contribuimos al aprendizaje de las IA, ¿cuáles son las medidas adecuadas para proteger nuestra propiedad intelectual?

Iván Gándara: Comisión 2 (Comisión de Inteligencia Artificial en la Era Digital).
Colegio Internacional Eirís, A Coruña, Galicia.



Fuentes:
         
https://internauta.blog/todos-contribuimos-a-la-ia-deberiamos-recibir-un-pago-por-eso/

https://www.ine.es/ss/Satellite?L=es_ES&c=INESeccion_C&cid=1259925529799&p=%5C&pagename=ProductosYServicios%2FPYSLayout&param1=PYSDetalle&param3=1259924822888

https://dependencia.info/noticia/6417/actualidad/analisis-geroasistencial:-el-brete-del-binomio-tecnologia-y-envejecimiento.html

Pages: [1]