paint-brush
L'IA n'est pas la préoccupation, ce sont les développeurs d'IA dont vous devriez vous inquiéter par@funsor
2,841 lectures
2,841 lectures

L'IA n'est pas la préoccupation, ce sont les développeurs d'IA dont vous devriez vous inquiéter

par Funso Richard6m2023/01/27
Read on Terminal Reader

Trop long; Pour lire

L'IA a le potentiel de révolutionner notre façon de vivre, de travailler et de socialiser. Mais alors que nous continuons à développer et à compter sur des systèmes d'IA, il est crucial que nous nous attaquions également au potentiel de biais. Nous devons reconnaître que la véritable préoccupation n'est pas l'IA elle-même, mais le parti pris de ceux qui la développent et la forment. En étant conscients de ce problème et en prenant des mesures pour l'atténuer, nous pouvons nous assurer que l'avenir de l'IA profite à tous.
featured image - L'IA n'est pas la préoccupation, ce sont les développeurs d'IA dont vous devriez vous inquiéter
Funso Richard HackerNoon profile picture

Ce n'est plus une nouvelle que ChatGPT et d'autres chatbots ont réinventé notre compréhension et notre interaction avec les outils d'intelligence artificielle (IA). De nombreuses personnes ont découvert l'IA pour la première fois lorsque Internet s'est déchaîné lors de la sortie de ChatGPT en novembre dernier.


Sans négliger l'excitation associée au chatbot d'OpenAI, nous sommes quotidiennement exposés aux outils et aux opérations d'IA. Prenez, par exemple, le fait que le moteur de recherche et la carte de Google s'appuient sur l'IA pour traiter les requêtes et produire des réponses en quelques secondes.

L'IA est le bon, le mauvais et l'inévitable

Les possibilités de ce qui peut être fait avec ChatGPT et d'autres outils d'IA ont généré une exaltation sans précédent. Il existe des exemples de ces outils créant du contenu et des documents techniques exclusivement réservés aux professionnels.


ChatGPT a été utilisé pour écrire des codes, développer des logiciels malveillants, générer des idées, traduire des langues et bien d'autres. En 2022, l'utilisation de Midjourney a augmenté de plus de .


Les capacités de ces outils introduisent également la peur de l'apocalypse. Il y a des soucis de chômage de masse , , , , , et .


Une action en justice déposée le 13 janvier 2023, a accusé Stability AI, Midjourney et DeviantArt de "les droits de millions d'artistes".


L'IA est l'avenir. Nous devons apprendre à accepter le bien et mettre en œuvre des mesures pour minimiser l'impact du mal. Cependant, il ne fait aucun doute que l'IA continuera de perturber la société moderne.


Une enquête récente de ont montré que la génération Z (29%), la génération X (28%) et la génération Y (27%) utilisaient des outils d'IA générative.


Les revenus du marché mondial de l'IA devraient passer de 136 milliards de dollars en 2022 à plus de d'ici 2030. Selon , 35 % des entreprises utilisaient l'IA dans leur entreprise, 42 % exploraient l'IA et 66 % exécutaient actuellement ou prévoyaient d'appliquer l'IA pour atteindre leurs objectifs de développement durable.


Les avantages de l'IA comprenaient l'automatisation du travail (30 %), les économies de coûts (54 %), les performances informatiques (53 %) et une meilleure expérience client (48 %).


Photo par Jemastock - stock.adobe.com


La fabrication de l'IA

Compte tenu des nombreuses merveilles de ChatGPT et d'autres outils, il est facile de supposer que les outils d'IA sont une fusion de sorcellerie et de science. Heureusement, ils ne le sont pas.


L'IA est constituée de modèles mathématiques basés sur des données et générés en laboratoire, conçus pour effectuer des tâches qui nécessitent l'intelligence humaine, telles que la reconnaissance de modèles, l'apprentissage par l'expérience, la résolution de problèmes et la prise de décisions efficaces.


Le développement de l'IA est stimulé par les avancées dans des domaines tels que l'informatique, les neurosciences et la psychologie. Il est basé sur l'idée que l'intelligence humaine peut être modélisée et simulée par une machine.


Certaines des technologies et techniques clés utilisées dans l'IA comprennent l'apprentissage automatique, le traitement du langage naturel et la robotique.

Impact des préjugés humains sur le développement de l'IA

La notion de "garbage in, garbage out" est tout à fait vraie pour l'IA. Alors que nous continuons à développer et à dépendre de plus en plus des systèmes d'IA, nous devons également être conscients du potentiel de biais de ces systèmes.


S'il est facile de pointer du doigt l'IA elle-même comme étant le problème, la vérité est que la véritable préoccupation est le parti pris humain de ceux qui développent et forment ces systèmes. Les systèmes d'IA se comportent exactement comme leurs développeurs veulent qu'ils se comportent.


69 % des chercheurs en IA pensent et devrait mettre davantage l'accent sur la sécurité.


Les préjugés humains dans l'IA peuvent se manifester de diverses manières, des données utilisées pour former l'IA aux processus de prise de décision du système lui-même.


Par exemple, si un système d'IA est formé sur un ensemble de données composé de manière disproportionnée d'un groupe particulier de personnes, il peut ne pas être en mesure de comprendre avec précision et de prendre des décisions pour d'autres groupes.


De même, si un système d'IA est conçu pour prendre des décisions basées sur certaines hypothèses ou stéréotypes, il peut perpétuer des préjugés néfastes dans la société.


L'un des plus gros problèmes de l'IA est le fait que les données sur lesquelles elle est formée peuvent refléter les préjugés des personnes qui collectent et conservent ces données.


Par exemple, si un ensemble de données utilisé pour former un système de reconnaissance faciale est principalement composé d'images de personnes à la peau claire, le système fonctionnera probablement mal lorsqu'il essaiera de reconnaître les visages de personnes à la peau plus foncée.


Il s'agit d'une forme de biais qui peut avoir des conséquences dans le monde réel, comme dans le cas de en raison d'une mauvaise correspondance de reconnaissance faciale.


Mais ce ne sont pas seulement les données qui peuvent être biaisées, les personnes qui créent et forment ces systèmes peuvent également introduire des biais à travers leurs propres préjugés inconscients.


Par exemple, un ont constaté que les modèles de langage comme GPT-3, qui ont été formés sur un ensemble de données principalement raciste et sexiste, ont tendance à produire des textes stéréotypés et racistes. Cela peut perpétuer des stéréotypes nuisibles et limiter le potentiel des systèmes d'IA.


Photo par Monopoly919 - stock.adobe.com


Outils d'IA socialement responsables

Avec 74 % des organisations n'ayant pas pris de mesures pour s'assurer que leur IA est fiable et responsable, l'urgence de créer des outils d'IA socialement responsables est une responsabilité collective. Cela commence par identifier le potentiel de partialité et travailler activement à l'atténuer.


Cela signifie diversifier l'équipe de personnes travaillant sur l'IA et s'assurer qu'un large éventail de perspectives et d'expériences sont représentées.


Il est important de s'assurer que les données utilisées pour former l'IA sont diverses et représentatives de la population qu'elle desservira. Cela implique de sélectionner et de conserver soigneusement les données pour s'assurer qu'elles ne perpétuent pas les préjugés ou les stéréotypes existants.


De plus, il est important de tenir compte de l'impact potentiel des données sur différents groupes de personnes et d'obtenir des contributions de divers points de vue pour s'assurer que les données sont inclusives et justes.


La conception des systèmes d'IA doit être transparente et explicable. Cela signifie que les processus de prise de décision des systèmes d'IA doivent être clairs et facilement compris par les humains afin que tout biais ou problème potentiel puisse être identifié et résolu.


Il est essentiel d'évaluer et de surveiller régulièrement les performances des systèmes d'IA pour s'assurer qu'ils fonctionnent comme prévu et ne perpétuent pas de biais préjudiciables. Cela comprend l'analyse régulière des données utilisées pour former les systèmes d'IA, ainsi que les décisions et les actions des modèles d'IA.


Le gouvernement devrait adopter des lois et des règlements qui imposent un développement et une utilisation socialement responsables de l'IA sans étouffer la croissance et le développement.


Photo de Tierney - stock.adobe.com


Maximiser l'IA pour le bien de la société

L'IA a le potentiel de révolutionner notre façon de vivre, de travailler et de socialiser. Mais alors que nous continuons à développer et à compter sur des systèmes d'IA, il est crucial que nous nous attaquions également au potentiel de biais. Nous devons reconnaître que la véritable préoccupation n'est pas l'IA elle-même, mais le parti pris de ceux qui la développent et la forment.


En étant conscients de ce problème et en prenant des mesures pour l'atténuer, nous pouvons nous assurer que l'avenir de l'IA profite à tous.


L'objectif devrait être le développement de l'IA pour le bien de la société. Un tel objectif exigera une responsabilité collective de la part des gouvernements, des développeurs et des utilisateurs. Les gouvernements devraient appliquer des réglementations garantissant que les systèmes d'IA sont développés de manière socialement responsable.


Les développeurs doivent éviter les préjugés en adoptant la diversité, la transparence et la responsabilité. Ils doivent évaluer et surveiller régulièrement les performances des systèmes d'IA afin d'éviter les biais et les abus involontaires.


Le public doit également comprendre qu'il est responsable de la manière dont il utilise l'IA. L'utilisation socialement irresponsable de l'IA devrait être découragée par tous.


바카라사이트 바카라사이트 온라인바카라