Recruté par algorithme

Uncategorized Commentaires fermés sur Recruté par algorithme
mai 072019

Est-ce que l’utilisation des services de techniques arrête le biais, ou le renforce? Ce simple problème est devenu un motif de tension entre les partisans de la technologie et ses sceptiques, mais trouver la réponse est plus compliqué qu’il n’apparaît. L’utilisation des services de est rarement un choix individuel, mais l’aboutissement d’un certain nombre de petits jugements séquentiels. Les algorithmes remplissent différents rôles au moyen de cette méthode: certains orientent les annonces de tâches vers certaines personnes, tandis que d’autres indiquent des perspectives indirectes d’embauche. Les instruments prédictifs analysent et notent les CV, et aident les responsables de la sélection à évaluer les compétences des candidats de nouvelles façons, en utilisant chacune des données classiques et uniques. Plusieurs pensent que des ensembles de règles peuvent aider le choix de l’homme: les fabricants évitent leurs propres préjugés personnels en ajoutant de la régularité à la procédure d’emploi. Mais les algorithmes introduisent de nouveaux risques qui leur appartiennent. Ils peuvent reproduire des biais institutionnels et historiques, amplifiant les inconvénients cachés dans des facteurs de données tels que la fréquentation d’un collège ou les classements d’évaluation de la fonctionnalité.

Même si des règles éliminent une part de subjectivité de votre procédure de recrutement, les êtres humains continuent d’être fortement associés aux choix d’embauche définitifs. Les arguments qui font que les techniques «objectives» sont aussi justes et plus précises que les humains faillibles oublient de bien savoir que, dans la plupart des cas, jouent également un rôle. Pour comprendre les préjugés dans la sélection des algorithmes et les moyens de les minimiser, nous devrons explorer la façon dont la technologie prédictive fonctionne à chaque changement d’application de votre approche. Même s’ils partagent fréquemment une partie de l’unité d’apprentissage, séminaire les ressources utilisées précédemment dans le processus peuvent être fondamentalement différentes de celles utilisées par la suite. Même les instruments qui semblent effectuer exactement le même processus pourraient dépendre de plusieurs types de données, ou présenter des prophéties de manière très différente. Notre analyse de l’équipement prédictif dans le cadre de la méthode de recrutement vous aide à expliquer exactement ce que font les «algorithmes de recrutement» et comment et où des préjugés peuvent entrer dans la méthode. Malheureusement, nous avons découvert que la plupart des ensembles de règles d’embauche dériveraient au détriment des préjugés. Même si leur contribution probable à la réduction des préjugés interpersonnels ne doit pas être minimisée, seuls des outils permettant de gérer de manière proactive des disparités encore plus profondes vous donneront l’espoir que l’innovation technologique prédictive pourrait aider à promouvoir les garanties, au lieu de les atténuer. L’approche d’emploi commence effectivement juste avant qu’un demandeur d’emploi soumette un logiciel.

Tout au long de la phase de «recrutement» ou de recrutement, la technologie prédictive aide à annoncer les ouvertures de carrière, à alerter les demandeurs d’emploi sur les placements éventuellement souhaitables et à offrir aux recruteurs des perspectives d’activités concrètes. Pour faire venir des individus, de nombreux employeurs utilisent des systèmes d’annonces algorithmiques et des tableaux de tâches pour arriver probablement aux demandeurs d’emploi les plus «pertinents». Ces systèmes, qui assurent aux employeurs une consommation plus importante des budgets de dépenses d’emploi, font généralement des prophéties très superficielles: ils ne prévoient pas qui peut réussir dans la partie, mais qui est le plus susceptible de cliquer simplement sur cette offre d’emploi. Ces prévisions peuvent conduire les annonces de tâches à être diffusées d’une manière qui prenne en charge les stéréotypes sexuels et raciaux, même si les organisations n’ont pas ce genre d’intention. Lors de recherches menées conjointement avec des collègues de Northeastern School et de USC, nous avons notamment découvert que des publicités très ciblées sur Facebook ou Twitter pour des placements dans des caisses d’épiceries étaient en réalité montrées à 85% de femmes, bien que Les entreprises ont visité une foule composée à 75% de couleur noire. Cela peut être une situation quintessentielle d’un algorithme reproduisant les biais de la vie réelle, sans la nécessité d’une implication de l’homme. D’autre part, des conseils de travail individualisés, tels que ZipRecruiter, tentent de comprendre instantanément les préférences personnelles des recruteurs et utilisent ces estimations pour recruter des personnes comparables.

À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.

© 2019 Sexy Girl Suffusion theme by Sayontan Sinha