Le problème de l’IA dans la formation

Pour aider les travailleurs à faire face au rythme des évolutions rapides du monde du travail moderne, les professionnels de la formation peuvent utiliser (et utilisent) la technologie – ce afin qu’une plus grande part de matériel L&D puisse être dispensée aux apprenants où qu’ils se trouvent, à chaque fois qu’ils ont besoin d’apprendre ou de bénéficier d’un soutien pour performer.

Cependant, s’il est vrai qu’elle peut rendre service au professionnel du L&D, la technologie – en particulier l’intelligence artificielle (IA) – peut également entraver les initiatives et stratégies en matière de formation et de développement.

Dans un article pour la Financial Times | IE Business School Corporate Learning Alliance, l’auteure en économie, blogueuse et ancienne rédactrice en chef au Wall Street Journal, Catherine Mazy, explique que les programmes d’IA sont capables de surveiller toujours plus étroitement les performances du personnel et le gaspillage de temps potentiel. Du point de vue de l’employeur, cela semble avoir certains avantages, mais il se peut que cette surveillance ne soit ni populaire ni « motivante » de l’avis des travailleurs. De plus, il n’est pas toujours facile pour le personnel d’exercer un droit de retrait, en dépit du Règlement général sur la protection des données (RGPD) de l’Union européenne.

problemi intelligenza artificiale

Surveillance IA

Cette surveillance par l’IA s’appuie sur le temps passé devant l’écran et, en tant que telle, soulève des questions sur la définition de la « productivité ». C. Mazy ajoute que, confrontés à cette surveillance accrue, les travailleurs pourraient – en retour – commencer à demander un décompte de leurs heures supplémentaires ou week-ends ouvrés.

D’après l’auteure, jusque récemment, les travailleurs intellectuels – généralement des cols blancs – étaient évalués en fonction de la qualité de leurs idées plutôt que de la quantité de choses qu’ils produisaient. À présent, cependant, les programmes d’IA prétendent surveiller la façon dont ils font leur travail et les moments où ils gaspillent leur temps. Cela a pour effet de mettre ces personnes en concurrence avec les machines.

S’il est certes raisonnable de penser que les employeurs vérifient quels sites Internet leur personnel consulte, conservent les journaux de messagerie électronique comme preuve potentielle en cas d’action disciplinaire ou de litige client futurs, et enregistrent ou surveillent les appels téléphoniques à des fins d’assurance qualité, les logiciels modernes sont désormais capables de :

• prendre des photos toutes les trois à dix minutes via la webcam de l’ordinateur
• prendre des captures d’écran des postes de travail
• surveiller les applications utilisées
• enregistrer ou compter les frappes au clavier
• détecter des mots-clés, tels que « football » ou « shopping » ou « cv »
• déterminer si le contenu d’un e-mail est du bavardage ou du travail
• utiliser des applications calendrier pour comptabiliser les heures facturables
• générer des scores de productivité, de concentration ou d’intensité chez les employés
• fournir un tableau de bord permettant de comparer les scores de productivité des employés et d’évaluer leur niveau d’implication

Ces programmes peuvent être dissimulés dans les processus en cours d’exécution, si bien que les usagers peuvent ignorer que des données sont collectées. Bien que le RGPD autorise les employés et les consommateurs à avoir accès aux données recueillies sur eux, ils doivent en faire la demande – ce qui ne leur est possible que s’ils savent que ces données sont collectées.

Productivité

De même, écrit C. Mazy, les employés tenus d’effectuer des heures supplémentaires ou de télétravailler les week-ends n’ont pas souscrit à l’idée d’être surveillés vingt-quatre heures sur vingt-quatre par le smartphone de leur entreprise. Il y a un compromis à passer en termes de productivité, de façon à leur permettre de récupérer certaines heures en échange du temps qu’ils consacrent à travailler de chez eux.

Mais toute cette question de la « productivité » est un terrain potentiellement miné. Généralement, les programmes de surveillance électronique recueillent des données sur les comportements qui sont faciles à surveiller – pas nécessairement sur celui qui devrait être surveillé.

Ces données permettent de savoir ce qu’un(e) employé(e) a fait mais pas pourquoi ou, nécessairement, comment. Cela pourrait conduire à surveiller – et à encourager – un comportement qui s’avère inefficace et contre-productif. En outre, cette surveillance ignore tout le travail émotionnel et préparatoire qui contribue à la productivité, mais qui ne peut pas être surveillé ou évalué.

En conséquence, la surveillance actuelle des travailleurs fondée sur la technologie soulève d’importantes questions sur la vraie nature de la productivité et de la performance. Ce qui est certain, c’est que l’utilisation exclusive d’algorithmes IA pour déterminer les réponses est totalement erronée.

Is AI the future of hiring? Lisez notre article et découvrez davantage d’informations sur l’IA dans la F&D.

trouble with AI automation

Le secret de la réussite

Abdul Kalam, ancien président de l’Inde (2002 – 2007), aurait dit la chose suivante : « Quel est le secret de la réussite ? De bonnes décisions. Comment prend-on de bonnes décisions ? Par l’expérience. Comment acquiert-on de l’expérience ? Par de mauvaises décisions. »

Ces mots servent d’avertissement aux dirigeants d’entreprise qui fondent leurs décisions sur des algorithmes possiblement défaillants. De même que vous ne laisseriez pas une personne ayant tout lu mais n’ayant jamais pratiqué la chirurgie opérer un membre de votre famille, ou que vous ne vous sentiriez pas à l’aise à l’idée de vous fier entièrement à une voiture « sans conducteur », les humains ont besoin d’acquérir de l’expérience par la prise de décisions pertinentes – et de continuer à exercer ces capacités décisionnelles dans un apprentissage perpétuel par l’expérience.

Catherine Mazy – toujours dans un article pour la Financial Times | IE Corporate Learning Alliance – affirme que la prise de décisions efficaces dépend de la capacité d’une personne à identifier instantanément des schémas récurrents (« patterns »), et à ne pas se sentir dépassée, même parmi une pléthore de choix.

L’IA peut surpasser des experts humains dans le dépistage de divers cancers parce que, alimentés par des quantités croissantes de données, les ordinateurs sont capables d’apprendre – mais seuls les humains ont la faculté de développer de nouvelles idées sur les maladies. Ils accomplissent cette tâche en menant des recherches. Sans aller jusqu’à soutenir que toutes les décisions doivent être prises par des humains, le fait d’exclure totalement les humains des tâches relativement prosaïques ou de s’appuyer entièrement sur des algorithmes d’IA peut mener à une perte de la créativité, de la compréhension, de l’innovation et de l’intuition qui viennent de la recherche, du « faire » et de la prise de décisions.

Les algorithmes ne sont pas parfaits

Le message central est que les algorithmes ne sont pas parfaits.
Non seulement les algorithmes peuvent être aussi subjectifs (intentionnellement ou non) que ceux qui les programment, mais les données avec lesquelles ils travaillent peuvent comporter des biais ou caractéristiques cachés. De plus, l’apprentissage machine peut créer un modèle d’auto-renforcement lorsque le coût d’une mauvaise décision positive est supérieur au coût d’une mauvaise décision négative.

Même si les données qui alimentent un algorithme peuvent être dépouillées de marqueurs typiquement subjectifs, tels que la race et le sexe, des facteurs cachés liés à l’histoire et à la société peuvent réintroduire des biais. Lors de la création d’un algorithme, ses concepteurs doivent spécifier ce envers quoi ils n’ont pas de préjugés et recueillir des données concernant ces points – même si le monitoring des données est effectué séparément, par exemple, des données de recrutement. La seule façon d’être totalement impartial est de tirer à pile ou face.

Il est important de se rappeler qu’amener les ordinateurs à prendre des décisions à notre place exige une bonne part de jugement.

Déterminer les facteurs à prendre en compte lorsque des données sont impliquées, est une décision appartenant à la société, pas aux ordinateurs – même ceux fonctionnant à base d’IA. Bien entendu, si nous ne prenons rien en compte, nous nous bornons à prendre des décisions au hasard – mais ce que nous prenons en compte n’est pas une décision que peut prendre un ordinateur.

Essayer Speexx Gratuitement

A propos de l'auteur :

For over 20 years, Bob Little has specialized in writing about and commentating on, corporate learning – especially e-learning – and technology-related subjects. His work has been published in the UK, Continental Europe, the USA, South America and Australia. You can contact Bob via bob.little@boblittlepr.com or visit his blog.