Ningún sector o industria queda al margen de la revolucionaria Inteligencia Artificial (IA) y sus capacidades. Y es especialmente la IA generativa la que está creando furor entre las empresas, los particulares y los líderes del mercado a la hora de transformar las operaciones mundanas.
La impresionante capacidad de la IA generativa para generar contenidos diversos y de alta calidad -desde texto e imágenes hasta vídeos y música- ha tenido un impacto significativo en múltiples campos.
Según la investigación de Acumen, se espera que el mercado mundial de la IA generativa alcance los 208.800 millones de dólares en 2032, creciendo a un CAGR del 35,1% entre 2023 y 2032.
Sin embargo, el crecimiento de esta poderosa tecnología viene acompañado de varias preocupaciones y problemas éticos que no se pueden ignorar, especialmente los relacionados con la privacidad de los datos, los derechos de autor, las falsificaciones profundas y las cuestiones de cumplimiento.
En este artículo, profundizamos en estas preocupaciones éticas de la IA generativa: cuáles son y cómo podemos prevenirlas. Pero primero, echemos un vistazo a las Directrices Éticas que la UE formó en 2019 para la IA digna de confianza.
Directrices éticas para una IA fiable
En 2019, un grupo de expertos en IA de alto nivel estableció unas Directrices Éticas para la Inteligencia Artificial (IA) digna de confianza.
Esta directriz se publicó para abordar los peligros potenciales de la IA en ese momento, incluidas las violaciones de datos y privacidad, las prácticas discriminatorias, la amenaza de impactos perjudiciales en terceros, la IA deshonesta y las actividades fraudulentas.
La directriz sugiere estas tres áreas en las que debe basarse una IA digna de confianza:
- Ética : Debe respetar los valores y principios éticos.
- Legal : Debe respetar todas las leyes y normativas aplicables.
- Robusta : Debe garantizar una seguridad robusta desde el punto de vista de la seguridad técnica y del entorno social.
Además, la directriz también destacaba siete requisitos clave que debe cumplir un sistema de IA para ser considerado digno de confianza. Los requisitos son los siguientes
- Supervisión humana: Un sistema de IA digno de confianza debe potenciar la supervisión y la inteligencia humanas, permitiendo a los humanos tomar decisiones informadas según sus derechos fundamentales.
- Seguridad técnica y solidez: Los sistemas de IA deben ser resistentes, precisos, fiables y reproducibles, además de garantizar un plan de emergencia en caso de que algo vaya mal. Esto ayuda a prevenir y minimizar los riesgos de cualquier daño involuntario.
- Transparencia de los datos: Un sistema de datos de IA debe ser transparente y tener la capacidad de explicar las decisiones que toma a las partes interesadas. Además, los humanos deben ser conscientes y estar informados de las capacidades y limitaciones del sistema de IA.
- Privacidad y gobernanza de los datos: Además de garantizar la seguridad de los datos, un sistema de IA debe asegurar medidas adecuadas de gobernanza de datos, teniendo en cuenta la calidad de los datos, la integridad y el acceso legítimo a los mismos.
- Rendición de cuentas: Los sistemas de IA deben implementar mecanismos que garanticen la rendición de cuentas, la responsabilidad y la audibilidad que permitan la evaluación de los datos, los algoritmos o los procesos de diseño.
- Diversidad y no discriminación: Una IA digna de confianza debe evitar los prejuicios injustos, que pueden tener implicaciones negativas. En su lugar, debe garantizar la diversidad y la equidad y debe ser accesible para todos, independientemente de su discapacidad.
- Bienestar social y medioambiental: Los sistemas de IA deben ser respetuosos con el medio ambiente y sostenibles, garantizando que también beneficien a las generaciones futuras.
Aunque estas directrices tuvieron un impacto significativo en la industria de la IA, todavía existen preocupaciones que incluso están aumentando con el auge de la IA generativa.
La IA generativa y el aumento de las preocupaciones éticas
Cuando se habla de ética en la IA, la IA generativa conlleva un conjunto único de retos, especialmente con la llegada de modelos generativos como OpenAI y ChatGPT.
La naturaleza particular de la IA generativa plantea problemas éticos, principalmente en el cumplimiento de la normativa, la seguridad y la privacidad de los datos, el control, las preocupaciones medioambientales y los derechos de autor y la propiedad de los datos.
Por ejemplo, la IA generativa puede generar textos similares a los humanos, incluidas imágenes y vídeos, lo que suscita preocupación por las falsificaciones profundas, la generación de noticias falsas y otros contenidos maliciosos que pueden causar daños y difundir desinformación. Además, los individuos también pueden sentir una pérdida de control con las decisiones de los modelos de IA basadas en sus algoritmos.
Geoffrey Hinton, el llamado padrino de la IA, afirmó que los desarrolladores de IA deben esforzarse por comprender cómo los modelos de IA pueden intentar arrebatar el control a los humanos. Del mismo modo, muchos expertos e investigadores en IA están preocupados por las capacidades y la ética de la IA.
El científico jefe de IA de Facebook y profesor de la NYU , Yann LeCun, afirma que los problemas y preocupaciones que la IA podría plantear a la humanidad son «absurdamente ridículos».
Dado que la IA generativa otorga a organizaciones e individuos capacidades sin precedentes para alterar y manipular datos, abordar estas cuestiones es de suma importancia.
Veamos estas preocupaciones con más detalle.
Generación y distribución de contenidos nocivos
Basándose en las indicaciones de texto que les proporcionamos, los sistemas de IA crean y generan automáticamente contenidos que pueden ser precisos y útiles, pero también perjudiciales.
Los sistemas de IA generativa pueden generar contenidos perjudiciales de forma intencionada o no intencionada por motivos como las alucinaciones de la IA. Las situaciones más preocupantes incluyen la tecnología deepfake, que crea imágenes, textos, audio y vídeos falsos, manipulando la identidad y la voz de una persona para difundir discursos de odio.
Algunos ejemplos de generación y distribución de contenidos dañinos por IA pueden ser:
- Un correo electrónico generado por IA o un post en las redes sociales enviado y publicado en nombre de una organización que puede contener lenguaje ofensivo y sensiblero, dañando los sentimientos de sus empleados o clientes.
- Los atacantes también podrían utilizar deepfake para crear y distribuir vídeos generados por IA en los que aparezcan figuras públicas como políticos o actores diciendo cosas que en realidad no dijeron. Un vídeo protagonizado por Barrack Obama es uno de los ejemplos más populares de deepfake.
- Un ejemplo de deepfake de audio es cuando, recientemente, un estafador fingió un secuestro clonando la voz de una niña para pedir rescate a su madre.
La difusión de este tipo de contenidos perjudiciales puede tener graves consecuencias e implicaciones negativas para la reputación y la credibilidad de una persona y una organización.
Además, el contenido generado por la IA puede amplificar los prejuicios al aprender de los conjuntos de datos de entrenamiento, generando un contenido más sesgado, odioso y dañino, lo que lo convierte en uno de los dilemas éticos más preocupantes de la IA generativa.
Infracción de los derechos de autor
Dado que los modelos de IA generativa se entrenan a partir de una gran cantidad de datos, esto puede dar lugar en ocasiones a la ambigüedad de la autoridad y a problemas de derechos de autor.
Cuando las herramientas de IA generan imágenes o códigos y crean vídeos, la fuente de datos del conjunto de datos de entrenamiento al que se refiere podría ser desconocida, por lo que puede infringir los derechos de propiedad intelectual o los derechos de autor de otras personas u organizaciones.
Estas infracciones pueden ocasionar daños financieros, legales y de reputación a una organización, lo que se traduce en costosas demandas y reacciones públicas.
Violaciones de la privacidad de los datos
Los datos de entrenamiento subyacentes de los Modelos de Lenguaje Grande (LLM) de la IA Generativa pueden contener información sensible y personal, también llamada Información de Identificación Personal (IIP).
El Departamento de Trabajo de EE.UU. define la IIP como los datos que identifican directamente a un individuo con detalles como su nombre, dirección, dirección de correo electrónico, número de teléfono, número de la seguridad social u otro código o número de identidad personal.
Las violaciones de datos o el uso no autorizado de estos datos pueden dar lugar al robo de identidad, el uso indebido de los datos, la manipulación o la discriminación, desencadenando consecuencias legales.
Por ejemplo, un modelo de IA, entrenado con datos del historial médico personal, puede generar inadvertidamente un perfil que puede parecerse mucho al de un paciente real, lo que puede dar lugar a problemas de seguridad y privacidad de los datos y a la violación de la normativa de la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA).
Amplificación del sesgo existente
Al igual que un modelo de IA, un modelo generativo de IA sólo es tan bueno como el conjunto de datos de entrenamiento sobre el que se entrena.
Por lo tanto, si el conjunto de datos de entrenamiento está formado por sesgos, la IA generativa amplifica este sesgo existente generando salidas sesgadas. Estos sesgos son generalmente prevalentes a los sesgos sociales existentes y pueden contener enfoques racistas, sexistas o capacitistas en las comunidades en línea.
Según el Informe sobre el Índice de IA de 2022, en 2021 se desarrolló un modelo de 280.000 millones de parámetros, lo que representa un aumento del 29% en los niveles de sesgo y toxicidad. Por lo tanto, aunque las IA LLM se están volviendo más capaces que nunca, también se están volviendo más sesgadas en función de los datos de entrenamiento existentes.
Impacto en las funciones y la moral de la mano de obra
Los modelos generativos de IA mejoran la productividad de la mano de obra automatizando las actividades mundanas y realizando tareas cotidianas como la escritura, la codificación, el análisis, la generación de contenidos, la síntesis, la atención al cliente, etc.
Mientras que, por un lado, esto ayuda a mejorar la productividad de la mano de obra, por otro, el crecimiento de la IA generativa también implica la pérdida de puestos de trabajo. Según el informe de McKinsey, la transformación de la mano de obra y la adopción de la IA estima que la mitad de las tareas y actividades de la mano de obra actual podrían automatizarse entre 2030 y 2060, siendo 2045 el año del punto medio.
Aunque la adopción generativa de la IA supone una pérdida de mano de obra, no significa que haya que detenerla ni que sea necesario frenar la transformación de la IA. Por el contrario, los empleados y los trabajadores tendrán que mejorar sus cualificaciones, y las organizaciones tendrán que apoyar a los trabajadores en las transiciones laborales sin que pierdan sus puestos de trabajo.
Falta de transparencia y explicabilidad
La transparencia es uno de los principios básicos de la IA ética. Sin embargo, la naturaleza de la IA generativa al ser de caja negra, opaca y muy compleja, conseguir un alto nivel de transparencia se convierte en todo un reto.
La naturaleza compleja de la IA generativa hace difícil determinar cómo ha llegado a una respuesta/salida concreta o incluso comprender los factores que han contribuido a su toma de decisiones.
Esta falta de explicabilidad y claridad suele suscitar preocupaciones sobre el uso indebido y la manipulación de los datos, la precisión y fiabilidad de los resultados y la calidad de las pruebas. Se trata de una preocupación especialmente importante en el caso de las aplicaciones y el software de alto riesgo.
Impacto medioambiental
Los modelos de IA generativa requieren una cantidad sustancial de potencia computacional, especialmente los de mayor escala. Esto hace que estos modelos consuman mucha energía, lo que tiene impactos medioambientales potenciales de alto riesgo, incluidas las emisiones de carbono y el calentamiento global.
Aunque se trata de un factor de la IA ética que se pasa por alto, es necesario garantizar que los modelos de datos sean respetuosos con el medio ambiente para que sean sostenibles y eficientes desde el punto de vista energético.
Justicia y equidad
El potencial de la IA generativa para producir respuestas inapropiadas, inexactas, ofensivas y tendenciosas es otra de las principales preocupaciones para garantizar la ética en la IA.
Puede surgir debido a cuestiones como los comentarios racialmente insensibles que afectan a las comunidades marginadas y la creación de vídeos e imágenes deepfake que producen afirmaciones sesgadas, distorsionan la verdad y generan contenidos que dañan los estereotipos y prejuicios comunes.
Rendición de cuentas
El proceso de creación y despliegue de datos de entrenamiento de los modelos generativos de IA complica a menudo el atributo de responsabilidad de la IA.
En casos de contratiempos, controversias y circunstancias sin precedentes, una jerarquía y una estructura de responsabilidad indefinidas dan lugar a complicaciones legales, señalamientos y obstaculizan la credibilidad de la marca.
Sin una jerarquía de responsabilidad sólida, este asunto puede tomar un mal cariz en poco tiempo, intensificando la imagen de la marca y dañando su reputación y credibilidad.
Autonomía y control
A medida que los modelos generativos de IA automatizan las tareas y los procesos de toma de decisiones en diversos campos, como la sanidad, el derecho y las finanzas, se produce una pérdida de control y de autonomía individual. Esto se debe a que las decisiones son impulsadas principalmente por algoritmos de IA en lugar de por el juicio humano.
Por ejemplo, sin intervención humana, un sistema automatizado de aprobación de préstamos impulsado por IA puede determinar la capacidad de un individuo para aceptar un préstamo o su solvencia basándose en su puntuación crediticia y su historial de reembolsos.
Además, los modelos generativos de IA también conllevan a veces una pérdida de autonomía profesional. Por ejemplo, en campos como el periodismo, el arte y la escritura creativa, los modelos generativos de IA crean contenidos que desafían y compiten con el trabajo generado por humanos, lo que suscita preocupaciones sobre el desplazamiento laboral y la autonomía profesional.
¿Cómo mitigar los problemas éticos con la IA generativa? Soluciones y buenas prácticas
Aunque los desarrollos y avances tecnológicos que han llevado a la IA generativa benefician enormemente a la sociedad, también es crucial abordar las preocupaciones éticas y garantizar unas prácticas de IA responsables, reguladas, que rindan cuentas y sean seguras.
Además de los creadores de modelos de IA y los individuos, es fundamental que las empresas que utilizan sistemas de IA generativa automaticen sus procesos para garantizar las mejores prácticas de IA y abordar las preocupaciones éticas implicadas.
He aquí las mejores prácticas que las organizaciones y las empresas deben adoptar para garantizar una IA generativa ética:
✅ Invertir en una sólida seguridad de los datos: El uso de soluciones avanzadas de seguridad de datos, como la encriptación y la anonimización, ayuda a proteger los datos sensibles, los datos personales y la información confidencial de la empresa, abordando la preocupación ética de la violación de la privacidad de los datos relacionada con la IA generativa.
✅ Incorporar perspectivas diversas : Las organizaciones deben incorporar perspectivas diversas en el conjunto de datos de entrenamiento de la IA para reducir los sesgos y garantizar la equidad y la toma de decisiones justas. Esto incluye involucrar a individuos de diversos orígenes y experiencias y evitar diseñar sistemas de IA que perjudiquen o pongan en desventaja a ciertos grupos de individuos.
✅ Mantenerse informado sobre el panorama de la IA: El panorama de la IA sigue evolucionando constantemente con nuevas herramientas y tecnologías, lo que da lugar a nuevas preocupaciones éticas. Las empresas deben invertir recursos y tiempo para comprender la nueva normativa sobre IA y mantenerse informadas de los nuevos cambios para garantizar las mejores prácticas de IA.
✅ Implantar firmas digitales: Otra de las mejores prácticas que los expertos sugieren para superar las preocupaciones sobre la IA generativa es utilizar firmas digitales, marcas de agua y tecnología blockchain. Esto ayuda a rastrear el origen del contenido generado y a identificar posibles usos no autorizados o manipulaciones del contenido.
✅ Desarrollar directrices éticas y políticas de uso claras: Establecer directrices éticas y políticas de uso claras para el uso y desarrollo de la IA es crucial para cubrir temas como la responsabilidad, la privacidad y la transparencia. Además, utilizar marcos establecidos como el Marco de gestión de riesgos de la IA o la Directriz ética de la UE para una IA digna de confianza ayuda a evitar el uso indebido de los datos.
✅ Alinearse con las normas mundiales: Las organizaciones deben familiarizarse con las normas y directrices mundiales como las directrices de ética de la IA de la UNESCO que hacen hincapié en cuatro valores fundamentales, como los derechos humanos y la dignidad, la diversidad y la inclusión, las sociedades pacíficas y justas y el florecimiento del medio ambiente.
✅ Fomentar la apertura y la transparencia: Las organizaciones deben fomentar la transparencia en el uso y el desarrollo de la IA para generar confianza entre sus usuarios y clientes. Es esencial que las empresas definan claramente el funcionamiento de los sistemas de IA, cómo toman las decisiones y cómo recopilan y utilizan los datos.
✅ Evaluar y supervisar sistemáticamente los sistemas de IA: Por último, evaluar y supervisar sistemáticamente los sistemas de IA es crucial para mantenerlos alineados y éticos según las normas y directrices de IA establecidas. Por lo tanto, las organizaciones deben realizar evaluaciones y auditorías regulares de la IA para evitar riesgos de problemas éticos.
Conclusión
Aunque la IA generativa ofrece importantes beneficios y revoluciona múltiples sectores, comprender y abordar las preocupaciones éticas que la rodean es crucial para fomentar un uso responsable y seguro de la IA.
Las preocupaciones éticas en torno a la IA generativa, como la infracción de los derechos de autor, las violaciones de la privacidad de los datos, la distribución de contenidos nocivos y la falta de transparencia, exigen reglamentos estrictos y directrices éticas para garantizar el equilibrio adecuado y un uso sólido y responsable de la IA.
Las organizaciones pueden aprovechar al máximo el poder de la IA con riesgos y preocupaciones éticas mínimas o nulas aplicando y desarrollando normas y directrices éticas y siguiendo las mejores prácticas de la IA.