Skip to main content
GAFAM & TechHighTechIntelligence artificielle

La révolution de l’IA personnelle

By 14 janvier 20263 Comments

L’IA n’est pas seulement en train de transformer le monde : elle redéfinit déjà qui contrôle notre pensée, nos données et nos outils. En tant qu’utilisateurs, nous faisons face à une alternative de taille : privilégier les outils d’IA grand public qui appartiennent aux géants de la tech, ou bâtir un système autonome local, qui garantirait le respect de notre vie privée. Un nouveau choix s’impose… et il pourrait bien décider de notre futur numérique.

 

En ce moment, deux avenirs très différents se construisent sur l’IA.

L’un est centralisé, filtré, optimisé pour évoluer à grande échelle, et discrètement paternaliste. Il décide quelles questions sont acceptables, quelles réponses sont prudentes, et quelles idées ne remontent jamais à la surface.

L’autre est discret, local, intime, privé et bien plus humain.

Je choisis le second, personnellement.

Aujourd’hui, j’aimerais expliquer pourquoi je suis en train de construire mon IA personnelle, pourquoi vous pouvez faire de même, pourquoi c’est plus facile qu’il n’y paraît, pourquoi il est important de le faire dès maintenant…

Et pourquoi il semblerait que l’IA personnelle représente la prochaine révolution de l’informatique grand public.

 

Cette peur injustifiée

Le débat public concernant l’IA fait une fixation sur sa montée en puissance : la super intelligence (!), la réglementation (!), l’alignement (!), le risque existentiel (!).

Certaines de ces questions se posent réellement. Mais elles se situent également en aval, et sont pour la plupart hors de propos.

La question la plus fondamentale, c’est la propriété.

Si l’intelligence existe seulement au sein de systèmes centralisés – des modèles entraînés avec les ressources du cloud, filtrés et limités par un petit nombre d’institutions – le pouvoir des humains se réduit par défaut.

Et ce résultat n’a pas besoin de l’intervention d’acteurs malveillants. Il subsiste même si les gens qui gèrent ces systèmes sont (et demeurent) des anges bienveillants.

Le pouvoir des humains se réduira pour cette raison : ce sera pratique.

Mais personne n’a envie d’un avenir où ses petits-enfants hériteront d’une seule version validée de la réalité, fournie via une interface « sûre » qui décidera quelles questions on aura le droit de poser.

La plupart des gens souhaitent un avenir où la technologie les rendra plus résilients, améliorera leur vie et la rendra plus intéressante. Un avenir où elle les aidera à avoir « plus avec moins », à avancer dans la vie en se confrontant à des problèmes plus intéressants, et à découvrir le monde avec une curiosité restée intacte.

C’est ça, l’IA personnelle.

 

Pourquoi « personnel » signifie « local »

En ce moment, l’IA est surtout hébergée « ailleurs » : sur des serveurs dont vous n’êtes pas propriétaire, régis par des politiques que vous n’avez pas choisies, et qui changent sans votre consentement. Une seule mise à jour peut modifier son comportement. Un changement apporté aux conditions de service peut redéfinir ce qui est permis.

Le fait d’opérer une IA en environnement local [NDLR : l’IA est exploitée et exécutée sur un ordinateur/serveur personnel] modifie cet équilibre. Pas d’abonnements. Pas de limite imposée par le prix. Pas de politiques modifiées discrètement.

Le modèle existe sur votre machine, fonctionne quand vous le souhaitez et reste exactement tel que vous l’avez laissé.

Vos données ne quittent jamais votre ordinateur. Les requêtes (« prompts ») ne sont pas enregistrées ailleurs. Les données contextuelles ne sont ni envoyées vers des serveurs centraux, ni monétisées. La confidentialité n’est pas une « fonctionnalité » mais la valeur par défaut.

C’est important, à partir du moment où l’IA commence à accumuler des données contextuelles : votre travail, vos écrits, vos schémas récurrents, vos pensées non abouties.

Ces données contextuelles vous appartiennent.

Une IA exploitée en local n’a aucun accès à l’environnement dans lequel elle est installée [NDLR : elle n’est pas dans le système mais exécutée par le système]. Elle ne peut ni fureter dans vos fichiers ni observer un environnement sans votre permission. Elle ne peut rien transmettre nulle part. Rien ne reste durablement à un autre endroit. Vous déterminez ce qui est visible et référencé, et ce qui disparaît.

Et en ce moment, c’est plus pertinent que jamais.

 

IA personnelle : le vieux compromis a disparu

Auparavant, l’IA locale signifiait un compromis. Des modèles plus lents. Des interfaces basiques. Une capacité limitée.

MAIS… ce n’est plus vrai.

Les modèles open source ont franchi un seuil. Ce qui exigeait autrefois un centre de données fonctionne désormais sur un ordinateur portable.

Les gains d’efficience réalisés sur l’entraînement permettent des modèles plus petits et, dans ce domaine, le progrès s’accélère plus vite qu’au sein des systèmes de pointe.

Grâce aux progrès réalisés dans le domaine de la quantification [NDLR : technique d’optimisation des modèles d’IA consistant à réduire la précision numérique des paramètres d’un modèle afin de le rendre plus léger, plus rapide et moins coûteux à exécuter], un modèle d’IA est 70 % plus petit et facile à faire fonctionner, sans pour autant détruire son utilité.

Un modèle qui exigeait autrefois des dizaines de giga-octets tient confortablement sur un ordinateur grand public. Un seul GPU – ou un Mac récent ayant une architecture à mémoire unifiée – fait largement l’affaire.

Dans le même temps, les grands laboratoires sont en train de ralentir.

Les gains les plus importants se produisent dans le domaine public, sur des modèles optimisés pour des machines réelles et des utilisateurs réels.

La courbe de l’innovation penche en faveur des gens qui gèrent leur propre système. Et, de plus en plus, tout le monde pourra le faire.

 

Comment fonctionne vraiment l’IA personnelle exécutée en local ?

C’est plus simple qu’il n’y paraît.

Un modèle d’IA est un simple fichier : un vaste ensemble de pondérations apprises [NDLR : coefficients numériques appris lors de l’entraînement du modèle].

Pour l’utiliser, vous avez besoin de trois choses :

  1. le fichier modèle ;
  2. un moteur pour le faire fonctionner ;
  3. une interface pour interagir avec lui.

Des outils tels qu’Ollama gèrent les trois.

Téléchargez un modèle. Faites-le fonctionner localement. Affichez-le comme une API [NDLR : « Application Program Interface », interface de programmation d’application], de sorte que les autres programmes de votre ordinateur puissent communiquer avec lui comme avec un pilote d’imprimante, une base de données ou un lecteur multimédia.

Et c’est tout.

A partir de là, tout change.

Vous pouvez figer des versions [NDLR : pour les conserver telles quelles]. Vous pouvez peaufiner le comportement. Vous pouvez définir la mémoire. Vous pouvez vous en servir hors connexion, dans un avion, dans une forêt, ou lors d’une coupure d’électricité.

Les nouvelles interfaces semblent aussi faciles que les applications de chat du cloud, mais au lieu d’en cacher les rouages, elles les montrent.

Vous pouvez voir dans quelle proportion l’IA réfléchit, le volume de mémoire qu’elle utilise, l’électricité qu’elle consomme, et quel modèle fonctionne de manière effective. Vous n’êtes plus en train de deviner. Vous pouvez regarder le système fonctionner en temps réel.

Cela ressemble moins à un logiciel et plus à un collaborateur que vous pouvez comprendre.

 

Le prochain moment de type PC

L’IA va façonner notre façon de penser.

Ce n’est plus facultatif.

La vraie question est de savoir si cette pensée sera soumise à la médiation de systèmes centralisés, ou si elle sera ancrée dans un contexte personnel.

Je ne veux pas externaliser ma mémoire, mes réflexions, ni le sens que je confère aux choses, vers le centre de données de quelqu’un d’autre.

Je veux un système qui connaisse mon histoire, comprenne mes schémas, et m’aide à me cerner clairement, sans me dire qui je suis censé être.

Il ne s’agit pas d’échapper à la technologie mais de s’en servir consciemment.

J’en dirai plus sur la façon dont je procède prochainement.

L’IA opérée en local est importante car elle transforme l’intelligence artificielle en un actif que vous possédez, au lieu d’un service que vous louez.

Et, au fil du temps, l’intelligence migre naturellement vers la périphérie, là où l’apprentissage est plus rapide, les erreurs coûtent moins cher et les gens deviennent plus résilients par défaut.

A bientôt,

Chris Campbell

 

Chris Campbell

Chris Campbell est constamment à la recherche de moyens pour vous aider à vivre une vie plus libre, plus saine, plus riche et plus épanouissante. Ses recherches l'ont conduit dans plus de 30 pays. Il a été à la pointe du Bitcoin, du tourisme médical, de la décentralisation, des villes autonomes, de la biotechnologie et de bien d'autres choses encore. Chris est l’analyste principal du service Cryptos Incubator de James Altucher, dans lequel il aide les abonnés à naviguer dans l’univers des cryptomonnaies. Vous pourrez également retrouver ses analyses dans la lettre Les Investissements d’Altucher.

3 commentaires

  • Avatar Gérard dit :

    Bravo Chris et merci de nous faire progresser par tes recherches et réflexions. Nous avons le même désir d’indépendance.

  • Avatar Tion dit :

    Certes cela serait le vrai progrès, mais il me semble que cela va à l’inverse du projet systémique où même les chaussettes doivent être en location. La monnaie et l’aide à l’intelligence décentralisée certains la haut doivent penser :même pas en rêve.

  • Avatar Saubion dit :

    Merci de nous informer et nous accompagner. Sinon nous nous sentons seuls

Laisser un commentaire

FERMER
FERMER
FERMER

5 Valeurs pour doubler votre PEA

X