La IA tiene el potencial de revolucionar la forma en que vivimos, trabajamos y socializamos. Pero a medida que continuamos desarrollando y confiando en los sistemas de inteligencia artificial, es crucial que también abordemos el potencial de sesgo. Debemos reconocer que la verdadera preocupación no es la IA en sí misma, sino el sesgo de quienes la desarrollan y entrenan. Al ser conscientes de este problema y tomar medidas para mitigarlo, podemos asegurarnos de que el futuro de la IA beneficie a todos.
Ya no es noticia que ChatGPT y otros chatbots hayan reinventado nuestra comprensión e interacción con las herramientas de inteligencia artificial (IA). Muchas personas conocieron la IA por primera vez cuando Internet se volvió loco con el lanzamiento de ChatGPT en noviembre pasado.
Sin descartar la emoción asociada con el chatbot de OpenAI, estamos expuestos a herramientas y operaciones de IA a diario. Tomemos, por ejemplo, el hecho de que el motor de búsqueda y el mapa de Google se basan en IA para procesar consultas y generar respuestas en segundos.
La IA es lo bueno, lo malo y lo inevitable
Las posibilidades de lo que se puede hacer con ChatGPT y otras herramientas de IA han generado una euforia sin precedentes. Hay instancias de estas herramientas que crean contenido y documentos técnicos reservados exclusivamente para profesionales.
ChatGPT se ha utilizado para escribir códigos, desarrollar malware, generar ideas, traducir idiomas y mucho más. En 2022, el uso de Midjourney creció más de .
Las capacidades de estas herramientas también introducen el miedo al fin del mundo. Hay preocupaciones deparo masivo , , , , , y .
Una demanda presentada el 13 de enero de 2023 acusó a Stability AI, Midjourney y DeviantArt de “los derechos de millones de artistas”.
La IA es el futuro. Debemos aprender a abrazar lo bueno e implementar medidas para minimizar el impacto de lo malo. Sin embargo, no hay duda de que la IA seguirá alterando la sociedad moderna.
Una encuesta reciente de mostró que la Generación Z (29 %), la Generación X (28 %) y los millennials (27 %) usaban herramientas de IA generativa.
Se espera que los ingresos del mercado global de IA crezcan de $ 136 mil millones en 2022 a más para 2030. Según , el 35 % de las empresas utilizaba la IA en sus negocios, el 42 % exploraba la IA y el 66 % estaba ejecutando o planeando aplicar la IA para abordar los objetivos de sostenibilidad.
Los beneficios de la IA incluyeron la automatización del trabajo (30 %), el ahorro de costos (54 %), el rendimiento de TI (53 %) y una mejor experiencia del cliente (48 %).
La creación de la IA
Dadas las muchas maravillas de ChatGPT y otras herramientas, es fácil suponer que las herramientas de IA son una fusión de hechicería y ciencia. Afortunadamente, no lo son.
La IA son modelos matemáticos basados en datos y generados en laboratorio diseñados para realizar tareas que requieren inteligencia humana, como reconocer patrones, aprender de la experiencia, resolver problemas y tomar decisiones efectivas.
El desarrollo de la IA está impulsado por avances en campos como la informática, la neurociencia y la psicología. Se basa en la idea de que la inteligencia humana puede ser modelada y simulada por una máquina.
Algunas de las tecnologías y técnicas clave utilizadas en la IA incluyen el aprendizaje automático, el procesamiento del lenguaje natural y la robótica.
Impacto del sesgo humano en el desarrollo de la IA
La noción de "basura que entra, basura que sale" es muy cierta en el caso de la IA. A medida que continuamos desarrollando y confiando cada vez más en los sistemas de IA, también debemos ser conscientes del potencial de sesgo en estos sistemas.
Si bien es fácil señalar con el dedo a la IA como el problema, la verdad es que la verdadera preocupación es el sesgo humano de quienes desarrollan y entrenan estos sistemas. Los sistemas de IA se comportan exactamente como sus desarrolladores quieren que se comporten.
El 69% de los investigadores de IA creen y debería implicar una mayor atención a la seguridad.
El sesgo humano en la IA puede manifestarse de diversas formas, desde los datos utilizados para entrenar la IA hasta los procesos de toma de decisiones del propio sistema.
Por ejemplo, si un sistema de IA se entrena en un conjunto de datos que está compuesto de manera desproporcionada por un grupo particular de personas, es posible que no pueda comprender con precisión y tomar decisiones para otros grupos.
De manera similar, si un sistema de IA está diseñado para tomar decisiones basadas en ciertos supuestos o estereotipos, puede perpetuar sesgos dañinos en la sociedad.
Uno de los mayores problemas con la IA es el hecho de que los datos en los que se entrena pueden reflejar los sesgos de las personas que recopilan y seleccionan esos datos.
Por ejemplo, si un conjunto de datos utilizado para entrenar un sistema de reconocimiento facial se compone principalmente de imágenes de personas de piel clara, es probable que el sistema funcione mal cuando intente reconocer los rostros de personas con tonos de piel más oscuros.
Esta es una forma de sesgo que puede tener consecuencias en el mundo real, como en el caso de debido a una coincidencia de reconocimiento facial defectuosa.
Pero no son solo los datos los que pueden estar sesgados, las personas que crean y entrenan estos sistemas también pueden introducir sesgos a través de sus propios prejuicios inconscientes.
por ejemplo, un descubrió que los modelos de lenguaje como GPT-3, que fueron entrenados en un conjunto de datos mayoritariamente racista y sexista, tienden a producir textos estereotipados y racistas. Esto puede perpetuar estereotipos dañinos y limitar el potencial de los sistemas de IA.
Herramientas de IA socialmente responsables
Dado que el 74 % de las organizaciones no han tomado medidas para garantizar que su IA sea confiable y responsable, la urgencia de crear herramientas de IA socialmente responsables es una responsabilidad colectiva. Comienza identificando el potencial de sesgo y trabajando activamente para mitigarlo.
Esto significa diversificar el equipo de personas que trabajan en IA y garantizar que se represente una amplia gama de perspectivas y experiencias.
Es importante asegurarse de que los datos utilizados para entrenar la IA sean diversos y representativos de la población a la que atenderá. Esto implica seleccionar y curar cuidadosamente los datos para garantizar que no perpetúen los sesgos o estereotipos existentes.
Además, es importante considerar el impacto potencial de los datos en diferentes grupos de personas y obtener aportes desde diversas perspectivas para garantizar que los datos sean inclusivos y justos.
El diseño de los sistemas de IA debe ser transparente y explicable. Esto significa que los procesos de toma de decisiones de los sistemas de IA deben ser claros y fáciles de entender para los humanos, de modo que se puedan identificar y abordar los posibles sesgos o problemas.
Es esencial evaluar y monitorear regularmente el desempeño de los sistemas de IA para garantizar que funcionen según lo previsto y no perpetúen sesgos dañinos. Esto incluye analizar periódicamente los datos utilizados para entrenar los sistemas de IA, así como las decisiones y acciones de los modelos de IA.
El gobierno debe promulgar leyes y reglamentos que hagan cumplir el desarrollo y uso de IA socialmente responsable sin sofocar el crecimiento y el desarrollo.
Maximizar la IA por el bien de la sociedad
La IA tiene el potencial de revolucionar la forma en que vivimos, trabajamos y socializamos. Pero a medida que continuamos desarrollando y confiando en los sistemas de inteligencia artificial, es crucial que también abordemos el potencial de sesgo. Debemos reconocer que la verdadera preocupación no es la IA en sí misma, sino el sesgo de quienes la desarrollan y entrenan.
Al ser conscientes de este problema y tomar medidas para mitigarlo, podemos asegurarnos de que el futuro de la IA beneficie a todos.
El objetivo debe ser el desarrollo de la IA por el bien de la sociedad. Tal objetivo requerirá la responsabilidad colectiva de los gobiernos, desarrolladores y usuarios. Los gobiernos deben hacer cumplir las regulaciones que garanticen que los sistemas de IA se desarrollen de manera socialmente responsable.
Los desarrolladores deben evitar el sesgo al adoptar la diversidad, la transparencia y la responsabilidad. Deben evaluar y monitorear periódicamente el rendimiento de los sistemas de IA para evitar sesgos y abusos no deseados.
El público también debe entender que es responsable de cómo usa la IA. Todos deben desalentar el uso socialmente irresponsable de la IA.