LONDRES – C’est un paradoxe inquiétant qui secoue la Silicon Valley. Alors que les géants de la tech vantent la révolution de l’intelligence artificielle, ceux qui sont chargés de l’entraîner et de la corriger affichent une méfiance absolue envers ces technologies. Selon une enquête accablante publiée par le Guardian, de nombreux travailleurs du secteur mettent désormais en garde leurs proches contre l’utilisation des chatbots et des nouveaux smartphones dopés à l’IA.
Ce scepticisme radical ne vient pas de nulle part. Il émane de la « main-d’œuvre invisible » de l’IA : ces milliers de modérateurs et d’annotateurs chargés de trier le vrai du faux. Interrogée par le média britannique, Krista Pawloski, qui travaille via la plateforme Amazon Mechanical Turk, raconte avoir failli valider une réponse générée par une IA sans réaliser qu’elle contenait des propos racistes subtils. « Cela m’a fait beaucoup réfléchir au nombre de fois où j’ai pu laisser passer des erreurs ou de la désinformation sans le savoir », confie-t-elle.
Des cadences infernales au détriment de la qualité
Le problème semble systémique. Brooke Hansen, une autre travailleuse de la plateforme, explique qu’elle ne fait confiance à aucun modèle de langage sur lequel elle travaille. La raison ? Les entreprises exigent des rendements impossibles, demandant d’analyser une quantité massive de données en un temps record, souvent sans fournir la formation adéquate aux évaluateurs.
Du côté de chez Google, le constat est tout aussi amer. Un employé chargé de la révision des réponses de l’IA a révélé que les vérifications de fact-checking, notamment sur des sujets de santé, sont souvent superficielles. Plus grave encore, il pointe du doigt des biais algorithmiques flagrants. Il cite l’exemple d’un modèle qui a refusé de fournir des informations sur l’histoire des Palestiniens, tout en répondant de manière exhaustive sur l’histoire d’Israël.
La course à la quantité de données
Face à ces dérives, cet employé de Google a pris une décision radicale : il refuse personnellement d’utiliser ces technologies et a expressément demandé à sa famille de ne pas acheter les derniers gadgets électroniques qui intègrent ces assistants virtuels.
Ces témoignages mettent en lumière une crise profonde dans le développement du Big Data. Dans leur course effrénée pour dominer le marché, les entreprises technologiques semblent avoir privilégié la quantité de données à la qualité des données, créant des outils puissants mais potentiellement toxiques, dont les propres créateurs se méfient aujourd’hui.