L’IA souhaite se rappeler de vous, mais cette quête de l’intimité technologique est-elle une bonne nouvelle ?
OpenAI, la société éditrice de ChatGPT vient d’annoncer que son célèbre modèle d’intelligence artificielle allait désormais avoir de la mémoire. Quels sont les impacts pour les utilisateurs ?
/2024/09/14/nicolas-arpagian-66e5be37c179f515361798.png)
/2025/04/26/openai-680d15a070d55891146240.jpg)
Jusqu'à présent, ChatGPT conservait assez peu d’informations de ses interactions avec les utilisateurs. Les éléments étaient notamment stockés le temps de la session de consultation afin de permettre une discussion suivie sur le même sujet. C’est ce qui nous donne l’illusion que nous interagissons avec un interlocuteur qui nous comprend et répond de manière plutôt cohérente à chacune de nos questions. Il gardait également des éléments relatifs aux thèmes et au style de la conversation.
Avec sa prochaine mise à jour, ChatGPT pourra se référer à l’historique de nos dialogues antérieurs. Une version test existait depuis février 2024. La promesse est désormais de rendre possible une personnalisation de notre relation avec ce service d’IA, puisqu’il adaptera ses réponses et ses formulations en fonction de l’historique des échanges précédents.
Les Européens devront patienter
On doit apporter deux précisions de taille : cette fonctionnalité sera d’abord appliquée aux comptes payants (Plus et Pro). Ensuite, réglementations européennes obligent, il n’est pas encore prévu qu’elle soit disponible en Europe dans sa forme actuelle.
Au-delà de ChatGPT, on retrouve cette tendance à enregistrer l’ensemble des interactions chez les autres acteurs du secteur de l’IA comme DeepMind de Google ou Claude de la société Anthropic. Ils cherchent tous à transformer un usage ponctuel pour répondre à une question isolée comme on le ferait avec un moteur de recherche, un assistant personnel qui connaît nos centres d’intérêt, notre style d’expression et les échéances qui nous concernent.
Entretenir une intimité numérique
On revient au principe du profilage individuel par l’analyse des données et des traces laissées lors de notre consommation de services numériques. Cette hyperpersonnalisation est évidemment ambivalente : nous apprécions d’avoir une IA qui nous comprenne, adapte ses explications à notre cas particulier et intègre nos contraintes dans ses réponses et ses propositions.
Mais cela signifie que la plateforme concentre sur la durée une masse d’informations diverses nous concernant. Une sorte de portrait impressionniste qui détaille tout ce qui constitue notre personnalité.
Outre le fait de se voir ainsi mis en fiche, peut-être qu’à force de connaître nos priorités et notre perception du monde environnant, l’IA va orienter ses suggestions. Et que celles-ci vont finir par être celles qui nous plaisent, mais qui ne sont pas forcément celles qui nous sont utiles. Une sorte d’enfermement intellectuel opéré par l’algorithme qui occulte les options qui pourraient, selon lui, ne pas nous convenir. Une façon de créer et d’entretenir des biais cognitifs qui peuvent conduire finalement par pénaliser son utilisateur.
Faire le tri parmi les souvenirs de l'IA
Dans le cas de ChatGPT, la société dirigée par Sam Altman laisse la possibilité à ses clients d’accéder aux éléments enregistrés. Pour le cas échéant, les identifier, les modifier voire les supprimer. La mémoire en question pouvant même être désactivée. Mais il lui faudra donner des gages sur la réalité de ces tris ou de ces retraits.
Car d’autres constructeurs ont par le passé été pris en flagrant délit de promesse non tenue quant à leurs engagements de respecter les exigences de leur clientèle. Par exemple lorsqu’Alexa, l’enceinte connectée d’Amazon, captait bel et bien les conversations environnantes à l’insu de ses propriétaires malgré les engagements pris officiellement.
C’est d’ailleurs notamment en raison des principes du Règlement Général sur la Protection des Données (RGPD), qui encadre les modalités d’exploitation des données personnelles, que ce dispositif de mémoire à longue durée n’est pas, pour l’instant, proposé au sein de l’Union européenne. Son caractère intrusif étant jugé a priori contraire à la conception de la vie privée du Vieux Continent. Des adaptations devront donc intervenir pour se mettre en conformité. Mais cela permet de poser dès à présent le débat sur l’acceptation d’une telle démarche de profilage à l’échelle de la population.
D’autant que de nouvelles plateformes comme Character. AI ou Pi conçu par la société Inflection AI fondée par Reid Hoffman, fondateur de LinkedIn, commercialisent déjà des interfaces d’IA qui revendiquent l'option de coller aux réactions des utilisateurs en exprimant de l’empathie. Une assimilation à l’esprit humain qui exige de collecter un volume de données conséquent, permettant de documenter les traits de caractère des parties prenantes. Là encore se pose la question de l’équilibre entre la personnalisation souhaitée et la mise en fiches de notre tempérament. Un niveau "d'intimité technologique" acceptable qu’il convient d’apprécier et qui appartient à chacun.
À regarder
-
Tornade meurtrière : scènes d'apocalypse dans le Val-d'Oise
-
Nicolas Sarkozy : premier jour en prison
-
L'OMS alerte sur la résistances aux antibiotiques
-
Les frères Lebrun, du rêve à la réalité
-
Que disent les images de l'incarcération de Nicolas Sarkozy ?
-
Algospeak, le langage secret de TikTok
-
Une Russe de 18 ans en prison après avoir chanté des chants interdits dans la rue
-
Cambriolage au Louvre : d'importantes failles de sécurité
-
"Avec Arco, on rit, on pleure..."
-
Wemby est de retour (et il a grandi)
-
Arnaque aux placements : la bonne affaire était trop belle
-
Une tornade près de Paris, comment c'est possible ?
-
La taxe Zucman exclue du prochain budget
-
Un ancien président en prison, une première
-
Normes : à quand la simplification ?
-
La Terre devient de plus en plus sombre
-
Cambriolage au Louvre : d'importantes failles de sécurité
-
Louis Aliot, vice-président du RN, et les "deux sortes de LR"
-
Nicolas Sarkozy incarcéré à la prison de la Santé
-
Décès d'une femme : les ratés du Samu ?
-
Louvre : cambriolages en série
-
Grues effondrées : tornade meurtrière dans le Val d'Oise
-
De nombreux sites paralysés à cause d'une panne d'Amazon
-
Hong Kong : un avion cargo quitte la piste
-
Quand Red Bull fait sa pub dans les amphis
-
Ces agriculteurs américains qui paient au prix fort la politique de Trump
-
ChatGPT, nouveau supermarché ?
-
Eléphants : des safaris de plus en plus risqués
-
Concours de vitesse : à 293 km/h sur le périphérique
-
Églises cambriolées : que deviennent les objets volés ?
Commentaires
Connectez-vous ou créez votre espace franceinfo pour commenter.
Déjà un compte ? Se connecter