Les OS
objet du travail n°26
Hello 👋
Comment allez-vous, avec ce printemps qui vient et qui s’en va ?
Pour cette édition, pour terminer (?) la série des objets du travail digitaux, nous vous proposons de vous plonger dans l’histoire des OS, les operating systems. Sous ce nom un peu barbare, se cache ce qui régit et structure l’intégralité de nos usages numériques. C’est l’espace virtuel de base, qui vient accueillir tous les autres objets numériques que nous manipulons au quotidien. En général, on en entend parler quand quelqu’un râle après la mise à jour de son PC sous Windows “Rha, j’ai fait la mise à jour, et y’a plus rien qui marche !”. Ce qui est mis à jour, dans ces situations-là, c’est l’OS, qui vient opérer les systèmes (données, logiciels, navigateurs) entre eux. C’est ce qui vous permet de faire “copier” depuis votre téléphone, et “coller” sur votre ordi, si vous travaillez sous Mac. L’ordinateur, là pour ordonner vos informations, d’où son nom, vient à l’aide des OS co-ordonner vos actions.
Avec Quentin Tourbez, avec qui j’écris cette édition, cela fait plusieurs mois que nous échangeons à bâtons rompus, dans notre Bureau 33.33, sur l’impact des OS dans nos usages et nos modes de vie. Parce qu’il conçoit des services digitaux, parce qu’il est passionné de ce qui se passe sur et dans nos ordinateurs, parce qu’il a écrit sur la mort d’internet, Quentin est absolument fascinant sur la question. Donc soyons honnêtes, si vous trouvez à cette newsletter un style singulier, c’est parce qu’il y a plus que largement contribué.
Alors, c’est un peu technique, mais ces objets-là, on les manipule au quotidien sans trop le savoir, et pourtant ils transforment la façon dont on travaille, dont on crée, dont en pense, dont on stocke… On vous embarque ?
Pour les nouveaux ici, je suis Marion Desclaux, designer et fondatrice du studio Objets du Travail, qui vise à accompagner les entreprises dans l’amélioration des conditions de travail de leurs salariés, en revenant sur leur histoire, en observant leur présent, et en imaginant leur futur.
Ici, c’est un peu mon atelier, mon laboratoire : chaque mois, avec un· invité·e, j’explore l’histoire d’un objet professionnel (dans la section Un peu d’histoire), je questionne son présent, et j’imagine son futur (dans la section Et demain ?). J’y partage également mes lectures du moment, ou liées au sujet (dans la section Pour aller plus loin).
Si le contenu vous plaît, n’hésitez pas à vous abonner. Si vous me lisez depuis longtemps ou que vous me découvrez, et que vous en avez les moyens, la version payante est disponible pour soutenir ce travail.
Les actus du moment
📍 On organise, au Bureau 33.33 (Toulouse), un cycle de conférences. La prochaine sur le dessin, le 21 avril. On s’y retrouve ?
👩🏫 Speculative Future m’a conviée pour une conférence à la croisée du design fiction et du travail. J’y ai invité, pour échanger les idées, Noémie Aubron et Silvia Döhnert. C’est le 23 avril prochain, au Laptop (Paris). Suivez les réseaux pour le détail.
📚 Ce vendredi, avec Valérie Hameau, on sera au à la journée d’étude « Design pour le(s) monde(s) à venir. Imaginer, produire, vivre et transmettre autrement », organisé le laboratoire LARA-SEPPIA, pour une nouvelle édition de notre conférence sur les récits comme premier outil de prototypage.
⑇ Un peu d’histoire
C’est donc parti pour l’histoire de cet objet qui structure nos objets numériques — téléphones, ordinateurs, montres connectées, l’operating system.
la roue et la route · le premier OS ?
Commençons par une image, pour bien comprendre le rôle des OS. L’OS est un objet fabriqué pour s’interfacer avec une diversité de pratiques, pour devenir même le contexte de ces pratiques, et les faire dialoguer entre elles. La monnaie, la langue, l’écriture, ne seraient rien sans le commerce, les réseaux d’échange, ou encore l’imprimerie ou le service postal. Les routes, elles, ont encouragé le développement même des techniques de mobilité variées, comme la voiture, le vélo, ou le cheval, mais sont encore adaptées à celles et ceux qui circulent à pied — elle se sont aussi spécialisées en fonction de leur usage, du sentier à l’autoroute, tout en permettant à chacune de dialoguer entre elles, quand c’est nécessaire.
L’OS vient standardiser le contexte d’usage, et ainsi encourager, faciliter les pratiques, voire même accélérer leur développement. Les OS sont finalement ces infrastructures fabriquant des contextes, des espaces faits pour certains usages, contribuant ainsi à les renforcer, voire à les transformer.
Peut-être que la meilleure image serait celle de la place urbaine. “Espace de centralité qui rassemble l’éclectique panel de la vie urbaine (...) marché, lieu symbolique de l’exercice du pouvoir, lieu d’exposition des fêtes, lieu d’expression des émotions populaires”, la place publique prend des formes variées au fur et à mesure de l’histoire, permettant tantôt l’expression du commerce, de puissance militaire ou politique. La roue, elle aussi, est comme un OS, venant soutenir toute forme de mécanisation (de la charrette, au moulin, elle est la base de toutes nos machines mécaniques).
1642 · la Pascaline, la première calculette
C’est d’ailleurs de ces machines dites de force que Blaise Pascal s’inspire, en miniaturisant leur principe de roue, pour imaginer la première machine à calculer, la Pascaline. Elle apparaît souvent comme le premier pas de l’informatique. Elle fonctionne d’ailleurs sur un principe de rouage (dérivé immédiat de la roue, l’une en embarquant une autre), venant automatiser et créer des séquences de gestes, évitant ainsi à celui qui calcule de répéter les formules. L’ancêtre d’Excel, en somme, ou du looper, en fonction des cultures.
1785 · Le métier à tisser, ou le premier remplacement d’un métier par une machine, celui des tisserands
Si cet objet mérite une édition à lui tout seul, le métier à tisser a cette particularité, encore inédite jusque-là, de faire et de délivrer une série de tâches, de façon autonome et sans intervention humaine, si ce n’est en amont, lors de sa programmation. C’est en cela qu’il est considéré comme l’un des ancêtres de l’ordinateur. C’est la première fois qu’on arrive à imaginer un langage (les cartes perforées) qui permet à la machine de réaliser un certain nombre d’instructions.
Alors, on s’éloigne un tout petit peu de l’OS, quoique. En effet, le métier à tisser nécessitait auparavant une opération de tirage, réalisée par un opérateur. Avec les métiers à tisser Jacquard, cette action disparaît, au profit d’une communication par les cartes perforées, qui “actionnent les cordes dégageant les fils permettant de passer la trame”.
Cette innovation a eu des conséquences sociales colossales, et est connue pour avoir initié des mouvements de révolte : en Angleterre, dont l’économie reposait notamment sur un savoir-faire unique de tisserands, selliers, où les Luddites ont littéralement détruit les métiers à tisser voués à les remplacer (et qui les remplaceront, leur poids politique et économique n’étant pas assez fort face à une technologie qui fait plus vite, moins cher) ; à Lyon, où la révolte des Canuts, les soyeux de la ville, qui vont quant à eux négocier un salaire garanti. Les métiers disparaissent, les artisans qualifiés se raréfient, et M. Jacquard regrettera les impacts sociaux de son innovation : la carte perforée.
Cela explique très probablement pourquoi William Morris, considéré comme le premier designer (textile) de l’histoire, est également un fervent défenseur du travail et des droits sociaux (il a notamment écrit l’excellent essai Travail utile, Fatigue inutile, en 1885).
Seconde Guerre Mondiale · Enigma et Colossus, torpiller des sous-marins et créer l’ordinateur moderne
La guerre, c’est rarement une bonne idée. Mais en matière d’innovation technologique, elle a une fâcheuse tendance à jouer le rôle d’accélérateur. La Seconde Guerre Mondiale ne fait pas exception, c’est même probablement son épisode le plus décisif dans l’histoire de l’informatique.
L’Enigma, c’est la machine utilisée par l’armée nazie pour chiffrer ses communications militaires. Un objet électromécanique d’une sophistication redoutable, capable de produire des centaines de milliards de combinaisons différentes. Les Alliés ont un gros problème. Et ce problème va, sans qu’on s’y attende vraiment, provoquer une révolution.
À Bletchley Park, en Angleterre, on réunit les meilleurs cerveaux disponibles. Parmi eux, un certain Alan Turing, mathématicien de génie qui avait déjà posé, quelques années plus tôt, les bases théoriques d’une machine universelle capable d’exécuter n’importe quelle opération logique à partir d’un ensemble d’instructions. Sur le papier, c’est beau. En temps de guerre, les choses deviennent concrètes beaucoup plus vite. Turing va contribuer à concevoir la Bombe électromécanique, une machine dédiée à automatiser le déchiffrement des messages Enigma. Ce n’est pas encore un ordinateur au sens moderne du terme, mais c’est une machine qui exécute des séquences d’opérations de façon autonome. Ça vous rappelle quelque chose ?
Dans la foulée, les ingénieurs de Bletchley construisent le Colossus : premier ordinateur électronique programmable de l’histoire, conçu pour casser un autre système de chiffrement allemand, le Lorenz. L’ordinateur n’est plus une curiosité de laboratoire. C’est un outil de guerre. Un outil donc financé, développé et perfectionné à une vitesse qu’aucun temps de paix n’aurait permis.
Ce moment est fondamental dans l’histoire des OS, même si personne ne l’a formulé ainsi à l’époque. Pour faire fonctionner ces machines et traiter les milliers de messages interceptés chaque jour, il faut organiser les tâches, séquencer les opérations, gérer les ressources disponibles. Des hommes et surtout des femmes, les “Wrens” membres du Women’s Royal Naval Service, opèrent ces machines en continu, vingt-quatre heures sur vingt-quatre, trois équipes en rotation. Elles sont, à leur façon, les premières OS humaines de l’histoire de l’informatique de guerre.
1950s · Les opératrices et les cartes programmes · la création d’un objet abstrait, d’un éloignement entre la technique et l’humain
Nous le voyions déjà avec le métier à tisser, et c’est encore plus vrai avec les premiers ordinateurs. Ces objets dont la technique, petit à petit, se cache, et devint de plus en plus abstraite aux yeux de ceux qui l’utilisent. Simondon caractérise ces objets techniques les objets abstraits, à la différence des objets concrets — ces objets abstraits sont “la traduction en matière d’un ensemble de notions et de principes scientifiques séparés les uns des autres en profondeur, et rattachés seulement par leurs conséquences qui sont convergentes pour la production d’un effet recherché.”. Cela signifie que celui qui l’utilise ne peut pas comprendre, de façon naturelle, inductive, son fonctionnement. C’est ce qui oppose par exemple le tour de clé pour démarrer le moteur d’une voiture, au bouton d’allumage électronique START qui l’a remplacé aujourd’hui.
Pour les premiers ordinateurs, le système invisible qui fait le point entre la machine et celui qui l’utilise, est opéré par des humains. C’est le régleur qui ajuste, qui “règle” la séquence à opérer par la machine, au profit de l’opérateur, qui utilise la machine pour faire autre chose, en l’occurrence sur les premiers ordinateurs IBM, opérer une série de calculs. Ce régleur est l’équivalent de nos OS actuels.
“Le travail, au début consistait à ramasser des cartes perforées. La carte client était jaune, les cartes articles étaient blanches et les cartes paiements étaient oranges. La transformation des commandes des clients en cartes perforées se faisaient par des centaines d’employées, au fichier clients (les cartes jaunes), au fichier articles (les cartes blanches). Je crois que le système de mobilier qui stockait les cartes s’appelait le “Davidson”. Les dossiers ainsi constitués étaient vérifiés (carte nom, articles et paiement) et la quantité de certains articles était indiquée avec un crayon graphite (en particulier les articles au mètre). Mon travail, au début, consistait à ramasser les jeux de cartes chez les vérifieuses de commandes pour les passer à une machine (IBM 513 ou IBM 514) dont le rôle était de reproduire le numéro de client de la carte nom sur les cartes articles et de transformer les quantités graphitées en perforations correspondantes. (...) Ce sont les calculatrices modèles IBM 604 qui calculaient le stock et qui valorisait chaque carte article (multiplication du prix unitaire par la quantité commandée). (...) De 1957 à 1961 j’ai manipulé des millions de cartes perforées.”
– De la carte perforée à Internet, Yves Cornil
Pour que Jean-Michel ait ses comptes, il avait besoin d’assistants-opérateurs, plus souvent opératrices, qu’on appelait mécanographes, pour perforer, ramasser, collecter, trier et passer les cartes qui détenaient les informations à compter, sur la machine (IBM, Bull).
IBM et les proto-OS, le début d’un standard
Au milieu des années 60, les ordinateurs débarquent dans toutes les industries essentielles après que leur miniaturisation soit acceptable — nous n’en sommes pas encore au MacBook Air, un ordinateur ça prend la place d’un bureau de PDG. Ils fleurissent au sein des banques, des centres de recherche, des réseaux ferrés, des centres de contrôle de l’aviation, dans les usines, partout. Ils servent à des calculs de plus en plus complexes et l’on fabrique des programmes spécifiquement pour des usages restreints, spécifiques à chaque industrie : calculer la trajectoire balistique d’un missile par exemple puisqu’il semble que ce soit d’actualité.
Cette diffusion dans les entreprises marque le passage d’une technologie qui migre des bureaux de recherche en informatique vers le monde professionnel. Ce changement de contexte est surtout traduit par une nécessité d’efficacité. L’ordinateur en plus de devoir accomplir des tâches au préalable dévolues aux humains doit aussi communiquer ses résultats dans le réseau où il officie. Les usagers commencent à s’échanger des programmes dans des communautés, notamment SHARE, un groupe affilié aux machines d’IBM. Dans l’histoire de l’ordinateur, ce moment est connu comme l’avènement du logiciel. Au même moment, FORTRAN devient le premier langage de programmation standardisé.
Loin de s’échanger des clés USB sous le manteau avec une copie de Adobe Photoshop, on se passe beaucoup de logiciels entre les années 60 et 70. Les communautés d’usages commencent à souffrir d’un manque d’uniformisation des environnement de travail. Chacun travaille sur son propre environnement de travail, il existe à cette époque une bonne vingtaine d’OS, des proto-OS. Chacun est issu des travaux de constructeurs, d’industriels spécifiques, et nous ne sommes pas encore rentrés dans la consolidation du marché de l’informatique qui verra s’imposer un nombre restreint de leaders, c’est encore une fourmilière en pleine activité.
Les membres de SHARE commencent à prioriser certains OS, et même à en édicter des règles d’usage. On standardise pour mieux se parler, on normalise un système complexe pour mieux l’appréhender. C’est à ce moment qu’un programmeur de chez IBM — qui sent bien à ce moment-là qu’un truc se passe et qu’on peut dominer un marché, on reste aux US quand même — crée SOS pour SHARE Operating System à destination de l’ordinateur IBM 709.
C’est la première fois qu’un OS est créé dans un but de diffusion et d’usage partagé, communautaire et standardisé. Avec ses prochains ordinateurs IBM va ajouter “de série” un OS fabriqué par leurs soins sur la base de SOS, c’est IBSYS. Il équipera tous les ordinateurs vendus par la firme dorénavant.
A partir de ce moment-là, IBM ne va cesser de raffiner ses OS en ajoutant toujours plus de fonctions facilitant l’intégration des nouveaux programmes produits par les usagers. Ce développement va suivre l’amélioration des caractéristiques technique de l’ordinateur : meilleur processeur de calcul, meilleur stockage, meilleure IHM. Quand les ordinateurs vont commencer à dialoguer entre eux (par câble, le wifi c’est pas pour tout de suite), de nouveaux OS vont advenir comme OS/360, toujours d’IBM.
La miniaturisation comme catalyseur des standards technique : les nouveaux OS pour ordinateur personnels
Dans les années 70s, la bataille de la miniaturisation fait rage. Et une entreprise bien connue va révéler un objet essentiel dans l’histoire de l’informatique : le microprocesseur. Cette innovation va permettre la miniaturisation des ordinateurs. Ils ne prendront plus une pièce tout entière mais tiendront sur un bureau. Quelle révolution. Ces nouvelles machines ont des contraintes radicalement différentes : peu de mémoire, un seul utilisateur, pas d’opérateur professionnel dédié, ce qui appelle des systèmes plus simples, plus légers et orientés utilisateur final.
Sur les premiers micro‑ordinateurs 8 bits, l’OS dominant devient CP/M de Digital Research, un système simple, en ligne de commande (la souris n’existe pas), pour un seul utilisateur sur un petit micro‑ordinateur. CP/M sert de modèle à toute une génération d’OS pour micro‑ordinateurs, avec une interface texte et un fonctionnement très différent des OS d’IBM.
Là, accrochez-vous à votre coque de téléphone, on largue la bombe. Vous connaissez sûrement Bill Buffalo Gates, la légende de l’Ouest ? À la base le gars est un programmeur doué qui co-fonde une entreprise de création de programme en langage BASIC pour l’Altaïr 8000. Il est bien intéressé par la micro-informatique quand IBM décide de prendre la vague des micro-ordinateurs.
Figurez vous que ce petit filou de BG — cool comme initiales quand même, enfin avant d’apparaître dans les Epstein files — va tenter un sacré coup de poker. Il entend parler par sa maman Mary Gates, qui siégeait au conseil d’administration d’une association avec… le PDG d’IBM, qu’ils pourraient bien avoir besoin d’un OS pour ces nouvelles machines.
A ce moment là sa société de programme marche bien et il dispose d’un petit capital financier. Il connaît les créateurs d’un OS qui a le vent en poupe dans la communauté des informaticiens : 86DOS. Il rachète ce système à Seattle Computer Products, et le transforme par la suite en PC-DOS et en MS-DOS. Par l’entregent de sa maman adoré, il réussit à imposer sont système d’exploitation chez IBM sans obligation d’exclusivité commerciale, balèze.
La suite vous la connaissez, le PC est un carton, MS-DOS se diffuse partout. Microsoft (oui, MS, pour micro-software) commence sa folle ascension. En 1995, Windows apparaît. La révolution : la possibilité grâce à l’OS d’avoir des programmes dans des fenêtres. Une nouvelle ère pour la productivité. Au début Windows n’est qu’une surcouche graphique à MS-DOS puis deviendra par la suite un OS à part entière.
Au même moment, un autre système d’exploitation voit le jour et se perfectionne. Il s’agit de UNIX. Unix se diffuse dans les universités et centres de recherche, donnant naissance à de nombreuses variantes (BSD, System V, etc.) qui inspireront largement les OS modernes. Apple puise dans cette tradition : Mac OS X (devenu macOS) repose sur un noyau de type Unix (XNU) et sur des composants issus de BSD/NeXTSTEP, ce qui en fait un système certifié Unix sous le capot, mais présenté avec une interface graphique grand public. C’est par ailleurs dans cette surcouche que réside le génie d’Apple à cette époque. Cette interface graphique joue un vrai rôle — grâce à leurs solutions d’IHM (Interfaces Hommes-Machines) — dans l’abaissement des barrières à l’entrée du monde de l’informatique pour les non experts. Leurs interfaces sont simples, travaillées et explicites. Le Mac avec MacOS est une machine simple d’usage qui trouvera vite sa cible.
Windows et MacOS vont s’imposer sur la scène mondiale des OS en raison du développement des machines personnelles, à la fois dans les foyers comme au sein des entreprises. On propose à ce moment là un ordinateur — la machine — et d’office on y adjoint un OS. Sans laisser le choix à l’usager. Seul les plus avertis savent “booter” leur machine sur l’OS de leur choix, notamment passer sous Linux, de véritable génies en leur temps. Il était courant dans les milieux de la création de voir tourner deux OS sur un ordinateur, certains logiciels n’étant développés que pour les uns ou les autres. On est dans les années 2000 et c’est la grande époque du logiciel. Adobe est à son apogée, et faire du Software est une nouvelle ruée vers l’or. Chacun a devant soi un parc d’usagers pouvant installer et faire de leur machine ce qu’ils souhaitent.
Fermer la machine par le logiciel, le piège du smartphone et d’iOS
Je terminais le paragraphe précédent sur la notion de liberté qu’offraient les ordinateurs personnels (et qu’ils offrent toujours par ailleurs) à leurs usagers. En effet avec un peu de recherche vous pouvez détruire votre machine de l’intérieur : je vous laisse avec ce fil de blog fascinant. Enjoy.
Quelques lignes de commande, des actions un peu hasardeuses et voilà la machine rendue inutilisable. C’est vous dire à quel point on peut aller loin dans les couches technologiques d’un ordinateur. Cette notion a progressivement disparu à mesure que le smartphone s’est développé avec ses OS adaptés.
Les premiers appareils mobiles intégraient bien entendu des OS mais le smartphone change vraiment la donne. À partir de 2007, le centre de gravité se déplace du PC vers le mobile.
L’iPhone introduit un OS dérivé de Mac OS X, adapté au tactile, qui deviendra iOS. Même noyau, frameworks proches, mais des interactions repensée pour l’usage “au pouce” (finie la souris !). On pourrait se dire, tiens c’est cool on va pouvoir construire du logiciel comme on l’imagine, librement, et exploiter ses nouvelles machines. Eh bien non c’est là que se crée le plus gros retournement de situation. L’iPhone est une machine fermée !
Avez-vous déjà essayé de rentrer dans le terminal de votre téléphone ? Non, c’est normal, il n’est tout simplement pas accessible. Sa mémoire profonde ? Non plus. L’iPhone est une boîte fermée, seule son interface de surface est accessible. Apple invoque pour répondre à cela l’idée d’avoir un appareil le plus simple et pratique d’usage. De réputation ils sont tout de même connus pour leur écosystème plutôt très fermé. Il y a une autre raison à ça : une rente financière monumentale qu’est l’AppStore et le système des microstransactions dont Apple prélève de 30 à 50% selon les cas.
Rappelez vous, Steve Jobs monte sur scène et annonce l’AppStore. Fabuleux, le plus grand magasin d’applications jamais créé. Le parterre est en délire, c’est encore l’époque ou chaque conférence de la marque californienne est scrutée comme la Pentecôte. Steve Jobs roule la pierre et ressuscite d’un “One more things” toute la technocroyance ! Quelques studios de développement déjà dans la confidence préparent secrètement les apps qui allaient pour certains les rendre extrêmement riches. Ce que les autres studios ne savaient pas et allaient découvrir avec stupeur, ce sont les règles draconiques et les critères olympiens auxquels il faut se plier pour voir son application être publiée sur le magasin en ligne unique des appareils sous iOS.
Apple vient tout simplement de faire changer l’OS d’époque ou d’en changer la modalité essentielle : son accès. Avec les OS mobiles, plus question d’être dans un environnement ouvert. La marque contrôle ce qui se passe sur ses machines, pour la qualité de l’expérience dira-t-on. En réalité pour mieux contrôler les flux financiers et en prélever une belle part. Si vous suivez l’actualité tech, vous vous souvenez de la bataille qui a opposé Epic Games (éditeur de Fortnite entre autres) et Apple. Le premier demandait au second d’ouvrir son OS pour permettre l’installation des ses jeux sans payer de taxe sur les micro transactions (achats d’armes ou de tenues par les joueurs). Finalement Apple à été contraint d’ouvrir son OS.
Et le web se fit le nouvel OS du monde
Face à ces jeux perpétuels de compatibilité et d’ouverture des OS, une voie alternative voit le jour au travers des navigateurs internet (Browser, comme Google Chrome, Ecosia, Internet Explorer en son temps, et tant d’autres). Opérant sur différents OS, certains navigateurs s’imposent vite comme une voie très pratique pour développer des applications compatibles avec une plus grande partie du marché. Ne reposant pas sur les standards de code en vigueur sur les OS, il est beaucoup plus facile de ne faire qu’un seul code qui sera par la suite déployé chez tous les usagers. De plus, lors des mises à jour, plus besoin de demander aux usager de télécharger et exécuter le nouveau programme, on envoie sur le serveur la nouvelle version et — magie du direct — c’est live pour tout le monde. Imaginez le changement. Les avantages sont encore nombreux : portabilité entre les appareils, interface unique favorisant l’adoption, bénéfices du stockage cloud,etc.
Poussés par ces usages, les navigateurs ont poursuivi une vraie course à l’armement devenant toujours plus performants. L’industrie du logiciel le leur a bien rendu et nous avons assisté à une pluie de web app (avec l’essor du SaaS notamment). Le déplacement du logiciel de l’ordinateur vers le navigateur marque un nouveau pivot dans l’histoire des OS.
Ce déplacement est important pour deux choses. Il redistribue le pouvoir entre les acteurs. Google qui est l’éditeur de Chrome a aujourd’hui acquis une place conséquente sur le marché. Le navigateur est incontournable. Mozilla survit, Apple essaie tant bien que mal de mettre Safari (son navigateur maison) à niveau mais en vain. Google est trop loin devant. Voilà notre premier problème : la position de quasi monopole. Si Google change les règles du jeu avec Chrome - comme a pu le faire Apple - que va-t-il se passer ?
Ensuite vient le problème (ou le miracle selon le point de vue) de la fin de la dépendance au matériel très performant. Les web app ont pour avantage de faire leurs calculs sur des serveurs à distance (cloud) de la machine où l’usager pianote. Le gros avantage de cette méthode c’est qu’elle ne fait plus reposer la charge logicielle sur l’ordinateur (le hardware).
On appelle ça le Shadow Computing. La puissance de calcul n’a pas disparu pour autant elle a été déplacée, et devinez chez qui ? Toujours les mêmes : Google, Amazon, Microsoft, qui sont les trois plus gros acteurs du cloud aujourd’hui.
Devant nous se dresse une conclusion ambivalente sur les dernières évolutions des OS, entre une voie rebelle ou le browser pourrait être une belle solution pour faire un pieds de nez au constructeurs informatiques et producteurs des OS centraux et fermés et ce qu’implique ce basculement : donner les pleins pouvoirs aux GAFAMS euhhh aux BATMAN en les laissant posséder tout les GPUs et disques durs qui font l’informatique à distance d’aujourd’hui.
Je vous laisse poursuivre votre réflexion vers les enjeux de gouvernance d’internet et de physicalité d’internet notamment avec cette épisode Du Code à Changé qui met à l’honneur les travaux de la chercheuse Francesca Musiani.
⑈ Et demain ?
Voici venu le temps de la projection, de la fiction, de l’histoire d’un futur imaginé pour cet objet.
Centre de Calcul Collectif Public (le C3P)
Quoi ? Le prix de la RAM a encore pris 12%. A ce rythme-là il ne faudra pas beaucoup plus de temps pour que la bouse ne commence à remplacer le dollar par les giga-octets pour suivre les cours. Simple histoire de simplification. Il est clair que je ne peux plus faire face à ces nouveaux prix. Mes rendus 3D sont trop gourmands. Obligé de fermer le logiciel, j’ouvre la page du centre de calcul de quartier et je remplis les champs du formulaire. La promesse est belle.
Depuis quelques mois tout le monde change de système. Fini les ordinateurs surpuissants mais que personne n’avait fait évoluer depuis 2029, tout le monde achète des ordinateurs minimalistes mais doté d’un très bon clavier, d’un très bon écran et d’un très bon micro. La puissance de calcul est partie se loger dans des centres de calcul à quelques pâtés de maisons, on s’y relie grâce à internet.
En 2028 des émeutes avaient eu lieu pour réclamer des actions de l’État pour réduire le coût d’accès au matériel numérique, les entreprises, les indépendants, les profs, on n’avait jamais vu une union nationale si forte : “rendez-nous nos puces” criaient-ils. La réponse de la ministre chargée du Numérique fût ces fameux Centres de Calculs Collectifs Publics.
Les bâtiments à l’abandon dans les centres urbains et tous ces parkings qui ne voyaient plus l’ombre d’un pneu ont été petit à petit réinvestis. On y a installé de quoi faire tourner des gros ordinateurs capables de gros calculs puis on a fabriqué un OS invisible pour l’usager qui permet à tout le monde de se relier à ces C3P. L’interface est cool. La nouveauté la plus importante c’est que l’OS est capable d’arbitrer entre les usages pour allouer de la capacité de calcul aux usages prioritaires (santé, éducation, services publics). Aujourd’hui on demande l’accès à la capacité de calcul.
Cette mesure collective est venue imposer de la sobriété dans nos usages numériques quotidiens. Elle aussi venue arbitrer nos usages professionnels sur des temps donnés, évitant ainsi les dérives de l’hyper-performance des télé-travailleurs·ses, pour qui la connexion illimitée était devenue le pire manager de tous.
Les plus heureuses de toutes furent les professeures de techno. Dans le programme de collège, on a doublé l’importance des cours de fabrication en micro-informatique. Face à la pénurie des composants on retrouve un plaisir à bricoler ses propres machines à partir de pièces détachées recyclées. On les adapte à ce que l’on souhaite faire, on compose, pour créer l’usage dont on a vraiment besoin — écouter de la musique, jouer, danser, faire la cuisine. Le dernier cours à la mode c’est le cours de programmation efficace : comment faire que mon programme soit économe en ressources de calcul pour pouvoir profiter d’une utilisation étendue de mon appareil.
Note d’édition : ce centre aurait très bien pu se nommer La Charette, comprendront celles et ceux qui lisent cela à plus de 23h…
⑉ Pour aller plus loin
Une sélection des belles trouvailles glanées au fil des recherches et de nos lectures de ces dernières semaines.
Apparemment il y a des OS pour tout : Un OS pour robots
Robots Rule the World ? : Un article qui pousse loin l’idée de l’informatique sans humains (ce qui est déjà le cas en majeure partie aujourd’hui)
Les GPU et IA génératives : une nouvelle phase de l’histoire environnementale de la numérisation
Pour les nostalgiques, cette vidéo absolument culte, du lancement du premier iPhone lors d’une Keynote Apple animée par Steve Jobs, à revoir pour plein de raisons. Nous étions en 2007. Et pour remonter encore dans l’histoire (1984), la présentation du Macintosh, toujours par Steve Jobs, jeune.
De l’indépendance à l’enclosure d’internet, cette série de podcasts sur la propriété foncière de ces espaces est fascinante. C’est signé France Culture.
Dans la même ligne, sur les scandales contre la privatisation abusive d’Apple : Epic Games contre Apple : la Cour suprême des Etats-Unis met fin à la procédure judiciaire + La Commission inflige à Apple une amende de plus de 1,8 milliard d’euros en raison des règles abusives liées à l’App Store
Et pour étirer les imaginaires, l’excellent Arco, film d’animation nommé aux Oscars (mais pas que), qui ouvre sur une nouvelle relation à nos machines.
Pour forger vos idées sur le travail utile, un détour par ce court essai de William Morris est toujours bon à prendre.
👋 Allez, à bientôt !







