COMISIÓN DE INTELIGENCIA ARTIFICIAL EN LA ERA DIGITAL > Zona de debate de la Comisión

Tormenta de ideas

<< < (6/6)

29002861-2-Viktoriia-651:
Buenos días Presidencia y Delegados.

Hoy en día el rápido desarrollo de la Inteligencia Artificial ha puesto de manifiesto las posibles consecuencias negativas que podría provocar no solo a nivel social sino también a nivel económico. Una de ellas es la posibilidad de creación de un monopolio/oligopolio económico en este creciente mercado. Si una única o un pequeño grupo de empresas se hace con el poder total sobre el desarrollo de estas tecnologías, conociendo bien su potencial de revolucionar nuestras vidas tal y como las conocemos, podrían crecer hasta tal punto de adquirir poder político, lo que supondría una amenaza a la democracia de nuestros gobiernos.

Por lo que propongo debatir sobre lo siguiente: ¿Cómo podemos evitar la creación de un posible monopolio tecnológico en base a estas tecnologías revolucionarias?

Delegada Viktoriia Volkova, Colegio San José Estepona.

50007716-2-Carla-628:
Buenas días , Presidencia y Delegados.

Después de una exhaustiva investigación sobre el reglamento propuesto por la Unión Europea  , que resumidamente consiste en dividir los sistemas de Inteligencia Artificial según sus riesgos para vetarlos o regularlos .Esto es muy prometedor, pero aún así he podido observar algunos temas importantes que no trata y son buenos para poderlos debatir, como por ejemplo el expuesto a continuación.

En primer lugar, como han mencionado algunos delegados el impacto de la Inteligencia Artificial en la educación es nefasto y no está claro cómo proceder. En los últimos años hemos podido observar como el IQ ha disminuido. ("por sus siglas en inglés, referido al coeficiente intelectual. Los test de IQ incluyen pruebas de aritmética , vocabulario y razonamiento visual"). https://www.bbc.com/mundo/noticias-44504603.

Expertos como Ole Rogeburg y Bernt Bratsberg, del Centro de Investigación Económica Ragnar Frisch descubrieron que el IQ de las personas noruegas era inferior respecto a las puntuaciones de sus padres cuando tenían su misma edad. Actualmente, esto ha ocurrido en la mayoría de países donde se ha realizado el IQ y se les ha atribuido el término de "nativos digitales" a estas personas.

Los expertos, afirman que hay varios factores que afectan, pero uno de ellos es "el incremento de tiempo que la gente emplea con dispositivos tecnológicos en lugar de leer libros" , esto tiene consecuencias perjudiciales en nuestro cerebro. A día de hoy, algo preocupante es el mal uso de la IA entre los jóvenes en sus trabajos educativos.
Directamente la IA no tiene la culpa , sino que es el alumnado quien lo emplea incorrectamente y va al camino fácil sin esfuerzo.

Esta pauta no está expuesta en el reglamento de la UE sobre la IA , lo que me lleva a preguntarme :

- ¿Debería la UE confiar, concienciando así a los jóvenes y enseñándoles a usar correctamente la popular IA generativa, de manera que en un futuro no les perjudique y en un presente les ayude?.

- O en otro caso ¿Debería la UE prohibir la IA generativa y que solo personas expertas puedan usarla, promoviendo así de nuevo el esfuerzo en trabajos académicos de los estudiantes?.

 La verdadera cuestión importante a debatir es :¿Dónde esta el punto medio en aprender con ayuda de la IA, sin perjudicarnos y poder evolucionar? ¿Cómo podemos reparar el decrecimiento del Coeficiente Intelectual?

Delegada Carla Layunta, Centro San Valero, Zaragoza.
Fuentes:
https://www.bbc.com/mundo/noticias-54554333
https://www.elconfidencial.com/alma-corazon-vida/2018-06-14/la-gente-joven-es-mucho-mas-tonta-que-los-de-mas-edad_1578235/
https://www.bbc.com/mundo/noticias-44504603

 

29002861-2-Viktoriia-651:

--- Quote from: 11005019-2-Ángel-306 activado Octubre 10, 2023, 02:30:07 pm ---Buenas tardes , estimados presidencia y delegados.

Me gustaría proponer el tema que no solo afecta principalmente en la economía sino  también indirectamente como son las inteligencias artificiales en el sector automovilístico .

En este sector no solo ayuda a sufrir menos accidentes con sistemas como la conducción autónoma o los sistemas (adas), sino también ayuda a la reducción de consumo de combustible (carburantes o electricidad). Si así lo consideran, podemos debatir más tarde sobre este tema.

Delegado Ángel Aguilar, Colegio Liceo Sagrado Corazón.

--- Fin de la cita ---

Buenos días Presidencia y Delegados.

Me gustaría profundizar un poco más sobre el tema propuesto por el delegado Ángel.
Estoy de acuerdo con que la Inteligencia Artificial trae muchos beneficios para el sector automovilístico. Pero, también creo importante hablar sobre el lado negativo de la implicación de la IA en este sector.

La conducción automática genera mucho debate debido a las elecciones éticas que tienen que tomar estas tecnologías en situaciones de alto riesgo. Entonces, como estos dilemas son muy recientes, creo que es necesario explorar más las responsabilidades jurídicas con las que cargarán las empresas del desarrollo de software para estos vehículos en casos de que ocurran accidentes automovilísticos.

También creo que es importante unificar la legislación que hay actualmente sobre estos vehículos en todos los países ya que actualmente no es el caso y este sería un paso importante para poder avanzar con el desarrollo e implantación de estas tecnologías.

Delegada Viktoriia Volkova, Colegio San José Estepona.

11007341-2-Alberto-667:
Buenos días

Hoy escribo esto para centrarnos de manera general en la ética de esta tan hablada inteligencia artificial. Inicialmente la ética en la IA se fundamenta en la premisa de que las tecnologías autónomas deben ser creadas y utilizadas de manera responsable, respetando los valores y derechos fundamentales de los individuos y la sociedad en su conjunto. Los principios éticos en la IA, como la transparencia, responsabilidad y justicia, sirven como guías para asegurar que la tecnología beneficie a la humanidad de manera equitativa y segura.

En segundo lugar, la ética de la inteligencia artificial se basa en principios fundamentales que buscan garantizar un desarrollo y uso responsable de la tecnología. La transparencia, enfocada a que los sistemas de inteligencia artificial deben de ser comprensibles y explicables. Los desarrolladores deben poder explicar cómo funcionan y por qué toman ciertas decisiones. La responsabilidad, los creadores de la inteligencia artificial deben asumir la responsabilidad de sus productos y estar dispuestos a corregir errores, mitigar sesgos y abordar consecuencias no deseadas. Y por último la justicia, la IA debe de ser diseñada y utilizada de manera que promueva la justicia y la equidad en su aplicación, evitando discriminaciones y garantizando beneficios equitativos.

Esta ética y principios que se aplican en la inteligencia artificial ya lo podíamos haber intuido o incluso explorado, ya que no existe otra realidad de la que realmente hay, el acceso a herramientas de IA debería de ser amplio, pero con ciertas restricciones y controles para prevenir un uso indebido, establecer pautas y políticas de acceso, así como proporcionar educación sobre su uso ético, es esencial.

50005549-2-Ainara-632:
Los sesgos de la IA

Como ya se ha indicado la IA se basa principalmente en consumir ingentes cantidades de datos, codificados y proporcionados por los seres humanos, y es a partir de estos datos, estructurados, y en ocasiones no estructurados, y con la aplicación de las múltiples metodologías cuando la IA empieza a comportarse como tal.
La aportación de los datos no suele ser del todo objetiva, fundamentalmente porque el ser humano por naturaleza se comporta influenciado por muchos aspectos que lo rodean. Nuestra forma de pensar, nuestro entorno, nuestras creencias, nuestro género, nuestras orientaciones sexuales, nuestra religión, nuestras experiencias, etc. nos condicionan y hacen que no seamos totalmente imparciales cuando transmitimos nuestras opiniones y, por lo tanto, la IA no reciba información objetiva, ni incluso diversa, y es aquí cuando se da el sesgo algorítmico, es decir, la información con la que la IA cuenta para realizar su aprendizaje no es objetiva ni diversa, e incluso el propio desarrollo del algoritmo puede que tampoco lo sea.
Son múltiples los casos en los que una IA con información sesgada ha dado malos resultados en sus predicciones. Así pues, por ejemplo, la Universidad de California descubrió que el algoritmo del Hospital General de Massachusetts priorizaba primero a los pacientes que más dinero habían gastado en ocasiones anteriores, porque se empleaba el coste del tratamiento como indicador de las necesidades de salud; En otro caso, la científica Joy Buolamwini descubrió que un algoritmo no era capaz de identificar rostros femeninos de raza negra como lo hacía con la misma precisión que la de los hombres blancos; otro algoritmo que no era capaz de detectar melanomas en pieles negras porque había sido entrenado solo con pieles blancas. También existe otro conocido caso, fue el de Amazon cuyo algoritmo discriminaba a las mujeres a la hora de realizar la captación de personal, considerando a los hombres mejores candidatos. 
Estos son solo algunos ejemplos del sesgo en los algoritmos, y que demuestra que las máquinas hacen predicciones a partir de la información con la que cuentan, y si esa información no es diversa las predicciones seguramente serán poco precisas. Los sesgos pueden ser conscientes o inconscientes. Los primeros son aquellos que intencionadamente son introducidos por quién codifica o desarrolla el algoritmo, o lo entrena; y los segundos, son aquellos que se producen sin intención.
Los múltiples casos de sesgo que se han dado a lo largo de todos estos años en los que la IA va evolucionando, hace necesario dedicar un esfuerzo a disponer de algoritmos no sesgados que cuenten con datos tampoco sesgados, y para esto hay diferentes soluciones que permitirían minorar la influencia negativa del sesgo sobre los resultados ofrecidos por la IA.

Desarrollar algoritmos respetuosos e inclusivos, contando con equipos diversos y multidisciplinares.
Monitorizar y auditar los algoritmos desarrollados para verificar su comportamiento y garantizar la mejora continua.
Contar con datos relevantes, bien estructurados y de calidad.
Formación sobre qué significa la IA para quien la usa, y para quien la va a usar.
Sensibilización como herramienta de concienciación para el desarrollo de IA.

Es tal la importancia que se le está dando a contar con una IA lo menos sesgada posible, que los grandes fabricantes como, por ejemplo, Microsoft, Google, Amazon, IBM, Toyota están creando equipos de trabajo dedicados exclusivamente a vigilar y garantizar que las herramientas que implementan se hacen bajo normas que garanticen una ausencia de sesgo en sus desarrollos, e incluso en el control de los resultados que consideran puedan tener consecuencias negativas.

Navegacin

[0] ndice de Mensajes

[*] Pgina Anterior

Ir a la versin completa