
No cabe duda de que la Inteligencia Artificial ofrece muchas oportunidades, pero también presenta retos e inquietudes aún complejas de entender.
Contenidos
Prejuicios de la IA:
Se observan muchas aplicaciones de IA que tienen un comportamiento diferente para una comunidad en particular, por ejemplo, en función de la raza, el sexo y la edad. Los prejuicios de la IA pueden crear estereotipos negativos y poner en peligro a las mujeres, las minorías y otros grupos sociales.
Por ejemplo, “Apple card”, el sistema de IA de Apple, tiene un sesgo de género. Ofrece tipos de interés y límites de crédito significativamente diferentes a los distintos géneros. Ofrece mayores límites de crédito a los hombres que a las mujeres. Con los sistemas tradicionales de IA de “caja negra”, sería difícil para una IA analizar y comprender dónde se originó este sesgo.
Errores de reconocimiento facial:
Se ha observado que la IA comete errores al detectar y reconocer un rostro. Se observa que el software de reconocimiento facial identifica erróneamente a 25 deportistas profesionales como delincuentes, entre ellos Duron Harmon, campeón de la Super Bowl con los New England Patriots.
Encontraron una tasa de identificación falsa positiva de 1 de cada 6 cuando se compararon cientos de fotos de deportistas con la base de datos de fotos de criminales.

Falsificaciones profundas:
Se trata de contenidos de audio o vídeo generados por IA que se utilizan para captar a una persona con la intención de engañarla en el falso suceso. Los vídeos generados por máquinas tienen un enorme potencial para dañar a la sociedad, difundiendo desinformación y facilitando ataques de ciberdelincuencia.
Ha habido muchos casos exitosos de deep fakes utilizados para ataques de ingeniería social dirigidos. Es un reto para el gobierno, los investigadores y los medios de comunicación social detectar las falsificaciones profundas.
Inteligencia artificial y política
Los “caballos oscuros” suponen un reto fundamental para el sistema democrático. Los responsables políticos y los políticos no tienen en cuenta la importancia de la Inteligencia Artificial.
Los políticos estudian las perspectivas de la gente utilizando IA, y luego modifican sus puntos de vista en consecuencia. Existen muchos casos en tiempo real de uso de la IA por parte de los políticos para conocer la perspectiva de la gente y moldear sus puntos de vista en consecuencia.
Así, con el aumento de las oportunidades, también crecen las amenazas potenciales para los individuos o la sociedad. Por lo tanto, se requiere el enfoque adecuado para gobernar una amplia variedad de aplicaciones y tecnologías de IA que tienen un impacto dramático en la sociedad.
Las empresas confían cada vez más en la IA para tomar decisiones importantes y adoptan la IA en el flujo de trabajo empresarial mediante la adopción de la Inteligencia Artificial.

¿Cómo puede la ética en la IA tener un futuro mejor?
Estableciendo normativas sobre IA se pueden reducir los riesgos de La inteligencia Artificial, como la vigilancia masiva y las violaciones de los derechos humanos. Es imprescindible contar con una normativa sensata que equilibre los posibles daños y beneficios de la IA.
Numerosos investigadores están tomando la iniciativa de desarrollar una IA que siga unas normas éticas.
Algunos marcos éticos pueden minimizar los riesgos de la IA y garantizar una IA segura, justa y centrada en el ser humano. Discutiremos algunas características de la Inteligencia Artificial Ética que nos dirían mejor que hacen que los sistemas de IA sean más seguros y justos:
Bienestar social:
La IA ética pone el sistema al servicio del individuo, la sociedad y el medio ambiente. Trabajará en beneficio de la humanidad.
Evitar prejuicios injustos:
El sistema de la Inteligencia Artificial que se diseñe será éticamente justo. No discriminará injustamente a individuos o grupos. Proporciona un acceso y un tratamiento equitativos. Detecta y reduce los prejuicios injustos basados en la raza, el sexo, la nacionalidad, etc.
Privacidad y seguridad:
Los sistemas de IA mantienen la seguridad de los datos en lo más alto. Los sistemas éticos diseñados con la Inteligencia Artificial proporcionan sistemas adecuados de gobernanza de datos y gestión de modelos. Los principios de privacidad y preservación de la IA ayudan a mantener la seguridad de los datos.
Fiabilidad y seguridad:
El sistema de Inteligencia Artificial funciona solo para el propósito previsto, reduciendo así las posibilidades de que ocurran contratiempos desconocidos.
Transparencia y explicabilidad:
El sistema ético explica cada predicción y resultado. Aporta transparencia a la lógica del modelo. Los usuarios conocen la contribución de los datos a los resultados. Esta revelación justifica el resultado y genera confianza.
Gobernable:
Diseñamos un sistema que funciona en las tareas previstas. Detecta y evita consecuencias no deseadas.
Alineación de valores:
Los seres humanos toman decisiones teniendo en cuenta valores universales. Los marcos éticos ayudan a considerar esos valores universales.
Centrado en el ser humano:
El sistema de Inteligencia Artificial ético valora la diversidad, la libertad, la autonomía y los derechos humanos. Sirve a los humanos respetando los valores humanos. El sistema no realiza acciones injustas e injustificadas. Respeta la libertad y la autonomía individuales.
Conclusión
Muchos consideran que la Inteligencia Artificial es una tecnología tremendamente transformadora. Una vez que consideramos a las máquinas como entidades que pueden percibir, sentir y actuar, no es un gran salto reflexionar sobre su estatus legal.
Algunas cuestiones tienen que ver con la mitigación del sufrimiento, otras con el riesgo de resultados adversos. Tiene sentido dedicar tiempo a pensar qué queremos de estos sistemas y qué deberían hacer, y abordar cuestiones éticas para construirlos pensando en el bien común de la humanidad.