¿CÓMO ENTIENDE LA INTELIGENCIA ARTIFICIAL UN PREJUICIO?

Por Irradia Noticias

• No es el “coco” ni se le debe de tener miedo. Es una nueva y poderosa herramienta
Por: Alejandro Cárdenas

La inteligencia artificial IA, no «entiende» los prejuicios de la misma forma en que los humanos lo hacen. La inteligencia artificial aprende a través de algoritmos y modelos matemáticos, y su conocimiento se basa en los datos proporcionados durante su entrenamiento.
Sin embargo, si la IA es entrenada con datos que contienen prejuicios, puede asimilar y replicar esos prejuicios en sus resultados o decisiones. Esto se debe a que la inteligencia artificial aprende patrones a partir de los datos que se le proporcionan, sin tener una comprensión consciente de qué son los prejuicios.
La IA refleja los sesgos y prejuicios de los datos de entrenamiento y de la sociedad en la que se encuentra. Por lo que es obvio afirman que tanto es responsabilidad de los desarrolladores y usuarios de la inteligencia artificial IA, asegurarse de que los datos de entrenamiento sean precisos, imparciales y representativos de la diversidad de la población, para evitar la propagación de prejuicios o discriminación en sus resultados.
Hay que mencionar también que se están desarrollando técnicas de inteligencia artificial IA ética y justa, para identificar y mitigar los prejuicios en los mismos sistemas de IA.
La UNESCO, el 23 de noviembre de 2021, emitió una recomendación en calidad de instrumento normativo elaborado mediante un enfoque mundial, https://www.unesco.org/es/legal-affairs/recommendation-ethics-artificial-intelligence donde reconoce las repercusiones positivas y negativas profundas y dinámicas de la inteligencia artificial IA en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información.
El desarrollo de técnicas de inteligencia artificial ética y justa, se centra en asegurar que los sistemas de IA sean diseñados y utilizados de manera responsable, minimizando riesgos y maximizando beneficios para todos los individuos y la sociedad en general.
Estas técnicas se basan en principios éticos y valores fundamentales, que incluyen la transparencia, la rendición de cuentas, la equidad, la privacidad, la seguridad y el consentimiento informado. Su objetivo es garantizar que los sistemas de IA no promuevan la discriminación, el sesgo o la injusticia, y que sean diseñados de manera inclusiva para no dejar a nadie atrás.
Para lograr esto, se llevan a cabo diversas acciones durante el desarrollo de sistemas de IA, como:
Análisis de datos: Se realiza una evaluación exhaustiva de los datos utilizados para entrenar los modelos de IA, identificando y mitigando cualquier sesgo existente en ellos. Esto implica examinar cuidadosamente los conjuntos de datos para evitar discriminaciones injustas y sesgos potenciales.
Diseño de algoritmos: Se busca crear algoritmos que sean justos, transparentes y explicables. Esto implica utilizar algoritmos que no discriminan ni perpetúan prejuicios, y que sean capaces de proporcionar explicaciones claras sobre cómo llegan a sus conclusiones.
Supervisión y control humano: Se establecen mecanismos para garantizar la supervisión y el control humano en la toma de decisiones basadas en IA. Esto implica que los sistemas de IA sean utilizados como herramientas para apoyar y mejorar la toma de decisiones humanas, en lugar de reemplazar completamente la intervención humana.
Privacidad y protección de datos: Se adoptan medidas para asegurar que los datos personales sean tratados de manera segura y respetando la privacidad de los individuos. Esto incluye el anonimato de los datos, la protección de la identidad y la adhesión a las regulaciones de protección de datos vigentes.
Evaluación continua: Los sistemas de IA deben ser sometidos a evaluaciones regulares para identificar y corregir cualquier impacto negativo o injusto. Esto implica verificar constantemente si los sistemas cumplen con los estándares éticos y si están generando resultados justos y equitativos.
Como se entenderá, la inteligencia artificial no es el “coco” ni se le debe de tener miedo. Es una nueva y poderosa herramienta que, si es mal empleada al igual que la energía atómica, desde luego que hay consecuencias, por eso la intención de fondo es garantizar que los sistemas de IA sean diseñados y utilizados de manera responsable, evitando discriminaciones injustas y sesgos y maximizando los beneficios para todos los individuos y la sociedad.

You may also like

NOTICIAS DEL DÍA

ÚLTIMAS NOTICIAS

©2023 Irradianoticias, TODOS LOS DERECHOS RESERVADOS