Le Carnet d'Ysengrimus

Ysengrimus le loup grogne sur le monde. Il faut refaire la vie et un jour viendra…

  • Paul Laurendeau

  • Intendance

De l’ordinateur comme objet mythique à l’ordinateur comme objet pratique: une chronologie sélective en deux phases

Posted by Ysengrimus sur 1 novembre 2013

Big Brother is all of us… [Big Brother, c’est nous tous…]

Nouveau dicton populaire

.
.
.

L’ordinateur fut l’un des objets les plus mal anticipés qui soit. Le voyant pourtant venir de fort loin, on a passé presque un siècle à fantasmer l’impact qu’il était voué à avoir sur nos vies et, dans cette immense futurologie raté, on n’a à peu près rien vu de ce qui venait vraiment. C’est parfaitement atterrant. J’aimerais ici vous convoquer à une petite chronologie sélective en deux phases. Elle est, certes, marquée au coin d’une trajectoire culturelle et technologique toute personnelle (surtout lors de la première phase, où je picore un peu au hasard dans le gargantuesque cloaque de la culture sci-fi du temps, en matière d’ordinateurs et de computation – c’est quand même pas tout le monde qui a lu et relu pieusement Les bulles de l’Ombre Jaune). Mais il s’agit ici indubitablement d’une sélection de faits significatifs en ce qui concerne les dimensions mythique (première phase) et pratique (seconde phase) de l’ordinateur dans notre vie collective. Matez-moi un peu ça. Le contraste entre les deux dimensions de la bécane (la mythique et la pratique) est hurlant.

Des ordinateurs, circa 1970

Des ordinateurs, circa 1970

.
.
.

PHASE 1: L’ORDINATEUR COMME OBJET MYTHIQUE

1818: le roman Frankenstein, or the modern Prometheus de Mary Shelley, présente une version scientiste du vieux mythe du Golem (un perso fabriqué de main d’homme qui devient potentiellement dangereux). L’impact de ce roman, et de ses sous-produits littéraires et cinématographiques, sur l’imaginaire de masse du siècle suivant sera tonitruant.

1928: la compagnie IBM (International Business Machines) fait breveter la fameuse carte perforée à quatre-vingt colonnes, devenue depuis l’archétype du genre. J’ai vu de mes yeux, dans ma jeunesse (circa 1978, cinquante ans plus tard donc), un gros ordi de bureau aspirer une pile de ces cartes. On savait pas exactement ce que ça foutait mais qu’est-ce que c’était impressionnant à voir aller.

1936: introduction, dans un article scientifique, de la machine de Turing. C’est une réflexion sur la proto-computation (ladite machine n’exista jamais que sur papier).

1947: des mathématiciens américains, britanniques et français réunis en congrès à Nancy (France) commencent à conceptualiser le programme de travail de la cybernétique, pour le moment une affaire de matheux pas trop claire. Apparition de la notion de bug. La légende veut qu’un insecte se serait coincé dans le dispositif d’un grand ordinateur expérimental, causant des avaries. Marginale dans la période mythique (cette dernière étant hautement réfractaire à l’idée du moindre pépin amenant l’ordinateur à «se tromper»), la notion de bug est devenue courante (voire galvaudée) avec la banalisation de l’ordi comme instrument ordinaire.

1949: le roman 1984 de George Orwell popularise l’idée d’une dictature omnisciente, centralisée, hautement scrutatrice (Big Brother is watching you) et surtout, reposant largement sur un support technologique, machinal, et parfaitement nuisible à la liberté de conscience et d’action.

1950: le recueil de nouvelles I, Robot, d’Isaac Asimov popularise l’idée du robot anthropomorphe, serviteur puissant, toujours potentiellement menaçant, et susceptible de prendre intempestivement les commandes de la vie sociale, au risque de la rendre machinale et insensible. L’idée de robotique (et les fameuses trois lois fondamentales de la robotique) remonte à ces textes de science-fiction.

1954: la compagnie IBM lance son premier grand ordinateur commercial. Ce n’est évidemment pas un objet destiné au grand public.

1955: invention du premier langage informatique par IBM, le FORTRAN.

1956: fondation officielle d’une discipline de recherche vouée à un essor durable (et à un bonheur variable): l’intelligence artificielle.

1957: apparition, dans des publications scientifiques (d’abord en allemand puis en français), du mot informatique (construit sur mot-valise à partir des mots information et automatique). Si le mot est désormais formulé, ça doit être que la chose s’en vient…

1961: mise en marché, par le conglomérat Coca-Cola, de la boisson gazeuse citronnée Sprite. «Quel rapport?» me direz vous. Tout un rapport. De fait, on fera longtemps croire au consommateur que le nom Sprite fut généré aléatoirement, une lettre après l’autre, par un ordinateur. Cette foutaise, présentant le ci-devant «cerveau électronique» comme une sorte de marmite de sorcier semi-magique, se joindra à une longue et tortueuse série de procédés rhétoriques mythifiant ouvertement le rôle calculatoire voire «intellectuel» de l’ordinateur. «Après avoir mis tous ces chiffres dans les ordinateurs du ministère des finances, ils nous ont transmis les résultats suivants…» C’est aussi à cette époque que se met à circuler l’idée voulant que l’ordinateur ne fasse jamais d’erreur, que ce soit l’humain qui le programme qui soit le seul à se tromper. Inutile de dire qu’il ne reste plus grand-chose de cette culture canulardière computationnelle depuis que l’ordi est devenu un objet de tous les jours.

1962-1963: le dessin animé The Jetsons met en vedette une famille futuriste de 2062, se déplaçant en voiture-aéronef et vivant dans une maison technologique (c’est le pendant futuriste des Flinstones). Au nombre des personnages, on retrouve Rosie, un robot bonne d’enfant qui fait la bise aux gamins, en les mettant au lit, avec sa bouche fixe laissant sur la joue la sensation d’un petit aspirateur.

1963: la compagnie Honeywell lance son premier grand ordinateur commercial. Dans ces années là, un ordinateur (computer), dans la vision qu’on en a, c’est un gros appareil mural avec des bobines tournant aléatoirement, des types en sarreau blanc ou des dames très sérieuses se tenant devant, et on est dans les bureaux souterrains secrets du Pentagone, de la NASA ou de General Electric.

1965: début de l’hégémonisme intellectuel de la Grammaire Générative Transformationnelle de Noam Chomsky. Elle imposera la chape de plomb d’une mythologie machiniste qui pèsera de tout son poids sur les sciences humaines universitaires pendant au moins trente ans. Inutile de dire que la grammaire-machine chomskyenne ne fut jamais réalisée.

1965-1968: la série télévisée à succès Lost in space raconte les pérégrinations de la famille Robinson perdue dans l’espace dans son vaisseau-soucoupe, le Jupiter II. Le robot serviteur de la famille signale les dangers en criant Danger! Danger! Mais il peut parfois aussi être déprogrammé par un traître et se retourner contre la famille. Il frappe alors le gros ordinateur de bord scintillant de ses larges pinces et tout pète dans un flot décourageant de flammèches et de boucane.

1966: l’épisode de Star Trek intitulé What are little girls made of? introduit, pour la toute première fois, la notion d’androïde (android), qui sera amplement reprise, notamment, au sein de ladite saga Star Trek, avec les personnages des androïdes Data et Lore (dans Star Trek: the next generation). Ici (en 1966) l’androïde, fabriquée de main d’homme, s’appelle Andrea et elle est pleinement opérationnelle pour la réalisation de l’intégralité des fonctions biologiques humaines (le mythe de Pygmalion s’enchevêtre dans l’affaire – je vous passe les détails. Un honorable aperçu de dix minutes est disponible ici)… On rencontre aussi l’androïde Ruk, gaillard frankensteinesque, baraqué, costaud et peu amène. Véritable ordi pleinement anthropomorphe, surhumain mais aspirant tendanciellement à l’humanité (I am not a computer! s’exclamera un de ces personnages), l’androïde apparaît comme un dangereux serviteur qui, si on en perd le contrôle, peut faire des ravages. Lors de telles crises, il faut finaudement éberluer l’androïde en le tirant vers ses tendances humaines et/ou en lui instillant des émotions non machinales sur fond inquiétant de paradoxes insolubles.

1967: le compositeur de musique électroacoustique Pierre Henry crée la bande musicale du ballet Messe pour le temps présent du chorégraphe Maurice Béjart. L’étrange pétarade électronique de Psyché Rock et de Jéricho Jerk change radicalement notre perception du son musical qui jouera désormais dans le petit radio de la cuisine. Un an plus tard (1968), l’album Switched-On Bach de Walter/Wendy Carlos nous donne à entendre, pour la toute première fois, du Jean-Sébastien Bach joué sur cette nouvelle invention d’un certain Robert Arthur Moog, le clavier synthétiseur. Deux ans plus tard (1969), l’album Moog plays the Beatles de Marty Gold fera avancer cette sonorité nouvelle d’un cran plus profond au sein des âmes mélomanes. Dans les deux décennies qui suivront, des instruments de musique programmables de plus en plus sophistiqués vont faire leur apparition. Le piano électrique, le mellotron et le ci-devant synthétiseur de Moog (pour s’en tenir ici aux plus vénérables – les tous premiers n’étaient pas spécialement computarisés. On avait, ici encore une fois, largement affaire à de l’informatique fantasmée) vont imposer leurs sonorités pimpantes et machinales dans la musique populaire. Frisson angoissé. À cause de l’aptitude imitative de certains de ces claviers électroniques, il va vite se trouver des voix pour annoncer la disparition prochaine des guitares, des cuivres, des bois et du piano à cordes. Une futurologie ratée de plus. On attend encore (et je ne vais pas pleurer ce ratage là – ordi et musique font aujourd’hui très bon ménage, l’un servant l’autre magistralement, pour le plus grand bonheur de l’oreille et de la diversité artistique la plus riche imaginable).

1968: dans le célèbre long métrage 2001: A space Odyssey de Stanley Kubrick, l’ordinateur central de bord d’une mission spatiale vers Jupiter, invisible (parce qu’omniprésent), doucereux et déférent (il s’appelle Hal et a une voix feutrée inoubliable), constate froidement que les cosmonautes du navire nuisent aux opérations et, donc, il les tue calmement, un par un, comme si c’était des parasites. On le débranche à temps, mais ça passe juste. La même année, dans l’épisode de Star Trek intitulé The Ultimate computer, on propose au capitaine James T. Kirk de se faire remplacer par un ordinateur central qui contrôle son navire. Cela fout le bordel meurtrier dans la flotte de la Fédération des Planètes et il faut finir par débrancher l’ordinateur M5, que son inventeur, un peu savant-fou sur les bords, traite comme son enfant. Il va sans dire que le tout ne se fait pas sans casse car l’ordinateur en question n’a tout simplement pas de bouton interrupteur…

1970: dans le roman de la série Bob Morane intitulé Les bulles de l’ombre Jaune, Henri Verne transporte ses héros, agents de la ci-devant Patrouille du Temps, en l’an de grâce 3222. Ils arrivent alors à Niviork (New-York), inquiétante mégapole en ruine (suite à un conflit nucléaire) dont toutes les activités sont coordonnées par un gigantesque cerveau électronique central nommé Ibémé (on apprend éventuellement que ce nom dérive d’IBM). Sorte de Baal abstrait au sommet d’une pyramide à degrés, Ibémé assure l’intendance de cycles obligatoires de sacrifices humains. Il faudra donc le détruire car il est parfaitement nuisible à la vie humaine.

1974-1978: la série télévisée The six million dollar man lance et popularise le mythe de l’homme bionique, un être humain accidenté qu’on retape et améliore en le réparant avec de la technologie programmée, amplifiant ses capacités physiques (et éventuellement mentales). De la femme bionique à la civilisation Borg, en passant par RoboCop et le Terminator, ce concept de fusion entre l’humain et la machine aura une riche postérité mythique.

1975: la compagnie Commodore commence à produire ses premiers terminaux à clavier. On parle alors beaucoup, sans trop comprendre à quoi ça rime, de puces (chips). Ce gros clavier avec écran penché, dont les touches font clac, clac, clac, on se demande ce que ça fout exactement et on y découvre surtout… des jeux.

1976: la compagnie Control Data embauche du prolo en masse à Montréal. Le principal boulot offert est celui de key-punch. Il s’agissait de dactylographier des données sur des machines à cartes perforées ressemblant un peu à de vieilles calculatrices de table.

1977, 1980, 1983: la première trilogie Star Wars de George Lucas renoue avec les thèmes échevelés, irrationalistes et manichéens du space opera et ne place pas vraiment la problématique de l’ordinateur en position centrale. On y rencontre cependant deux personnages de soutien qui contribueront pour la première fois à significativement renouveler l’image mythique de l’ordi. Le robot C-3PO est un droïde de protocole anthropomorphe, parlant 6,000 formes de communication. En dehors de cela, c’est un trouillard, un geignard et un ignare, mais il est difficile de ne pas le trouver insondablement attachant, tellement humain, en un mot, pour lâcher le mot. Beaucoup plus déterminant aux fins de la thématique, le robot non-anthropomorphe R2-D2 est un droïde d’entretien ne s’exprimant que par cyber-pépiements. Il est rien de moins qu’un super-terminal portatif autonome car il peut, de sa propre initiative ou sur demande, communiquer harmonieusement avec tous les mainframes imaginables, y compris ceux de l’ennemi. Mais surtout, en observant attentivement sa remarquable trajectoire, on découvre que R2-D2 est un serviteur discret, efficace jusqu’à l’omnipotence, sagace jusqu’à l’omniscience, et doté d’une extraordinaire élévation morale. Devenu une icône culturelle en soi, le droïde R2-D2 est incontestablement la première manifestation fortement positive et laudative d’une vision respectable, sereine et éthique de l’ordi, dans le grand cinéma de masse.

1978: un confrère, étudiant de fac en informatique de gestion, nous annonce triomphalement à la cantonade que, dans dix ans, tout le monde devra connaître un ou deux langages de programmation et que ce sera certainement FORTRAN et COBOL qui domineront ce nouveau champ de savoir populaire. L’explosion ultérieure du user-friendly (sans parler de l’apparition, chez les informaticiens, du Pascal, du C, du C++ du SQL, du Java, du Dot-net et j’en passe) rendra cette prédiction parfaitement inopérante, justement dans la décennie où elle était censée se réaliser.

1979: un jeune Ysengrimus de vingt-et-un printemps pianote sur un ordi pour la première fois de sa douce vie, dans une obscure salle de terminaux de la fac où il étudie. C’est justement un terminal. Le lettrage est vert fluo, il faut taper toutes sortes de codes cryptiques pour «entrer» dans le ci-devant mainframe et on a aucune idée de ce qu’on fout là exactement quand on y arrive. Inoubliable.

1980: la compagnie Atari introduit les premiers ordinateurs avec clavier et écran ne requérant pas qu’on pianote une litanie de commandes en code avant de se déclencher. Ils bootent (comme on disait alors) automatiquement sur allumage (tout un soulagement au demeurant) et servent surtout pour des jeux vidéo et la constitution de bases de données rudimentaires.

1981: apparition du robot industriel, servant notamment à l’assemblage des voitures. Cet appareil perfectionné de chaîne de montage portera un coup durable au fantasme asimovien du robot anthropomorphe. Désormais, un robot, c’est un type perfectionné de machine-outil utilisé dans l’industrie et non un compagnon domestique avec des yeux et une bouche pour parler. Et un androïde, bien ça n’existe tout simplement pas.

1982: le film de science-fiction Blade Runner de Ridley Scott incorpore des androïdes intégralement anthropomorphes en pagaille mais surtout, il met en scène une technologie de recherche d’informations préfigurant assez astucieusement l’Internet.

la machine de l’année pour 1983: le PC... L'ordi emménage...

La machine de l’année pour 1983: le PC… L’ordi emménage…

.
.
.

PHASE 2: L’ORDINATEUR COMME OBJET PRATIQUE

1982: Mise en place graduelle du Minitel en France.

1983: popularisation du micro-ordinateur ou ordinateur personnel (PC pour personal computer). On apprend tous à jouer au grille-pain avec les disquettes et à enchâsser le rouleau de papier symétriquement déchiquetable dans l’engrenage des imprimantes-mitraillettes. Démarre alors la compétition entre MacIntosh (Apple) et ce qu’on appelle alors les clones d’IBM (derrière lesquels se profilera Microsoft). Le film WarGames de John Badham est le premier long métrage à succès mettant en vedette un hacker (il passe à deux doigt de déclencher un conflit nucléaire en prenant le simulateur guerrier logé dans le grand ordinateur Pantagoneux qu’il parasite pour un jeu vidéo).

1983-1989: les années traitement de texte. On pourrait aussi dire: les années WordPerfect. La souris et les icônes, nées chez Apple puis reprises intempestivement par Microsoft, s’imposent durablement comme complément du clavier. On apprend tous à cliquer

1984: apparition télévisuelle de Max Headroom, donné comme le premier personnage artificiellement généré (en fait un acteur lourdement maquillé – les effets d’ordi étaient encore très marginaux). La création de personnages et de mondes engendrés artificiellement connaitra, en vingt ans, une véritable explosion, notamment dans l’univers cyclopéen du jeu vidéo. Certaines de ces figures (on pense par exemple à Lara Croft ou aux Sims – l’énumération serait trop longue ici) deviendront de véritables icônes culturelles. Apparaîtra avec eux une notion (qui a été largement galvaudée et barouettée): le virtuel.

1986: dans le film Jumpin’ Jack Flash de Penny Marshall, la protagoniste voit, avec ébahissement, des messages s’écrire sur son terminal d’ordinateur sans que ses mains ne touchent le clavier. Un espion en détresse l’appelle à l’aide, à travers les arcanes du système. Ce film est un des premiers à incorporer l’envoi de quelque chose comme des courriers électroniques comme élément central de son intrigue.

1990: apparition de la procédure de retouches photographiques Photoshop. En deux décennies, il deviendra possible d’effectuer artisanalement le type de montages photos que seuls la CIA et le KGB pouvaient se permettre dans les décennies antérieures. Mais assez vite aussi, les retouches photos, privées et publiques, vont se généraliser au point de susciter un net désenchantement du public. Bientôt, le trucage d’images par ordinateur sera partout et, conséquemment, ne leurrera plus personne. La retouche photo deviendra donc graduellement un procédé jugé fort négativement et certaines personnalités la subissant iront jusqu’à intenter des poursuites légales pour altération de leur image publique.

1991-1997: décollage en force d’Internet dans les différents pays. C’est le temps des arcanes encore mystérieuses du  www, du http, du dot-org et du dot-com. On se familiarise tous avec les hyperliens, qui font passer, en un éclair, d’un site à l’autre. Apparaissent aussi certaines envolées d’enthousiasme oratoire qui font sourire aujourd’hui comme cyber-espace ou autoroutes de l’information. Un certain pessimisme s’exprime aussi. On trouve l’Internet encore bien vide de contenu et surfer le net est alors perçu comme une fixation un peu schizo vous isolant de la vie sociale.

1993-1999: âge d’or du courrier électronique, des «listes» électroniques (sur lesquelles on a tous, un jour ou l’autre, posté un message privé par erreur) et… des pourriels (spam) qu’il faut effacer un par un, soi-même. Les premières binettes (emoticon) font leur apparition pour facialiser l’interaction et réduire la sécheresse des messages. C’est aussi le boom des légendes urbaines colportées par courriels pyramidaux et des petites amusettes iconiques fixes ou mobiles qu’on s’envoie entre amis. Un curieux constat se généralise. Les gens se conspuent souvent par courriel, même sur des listes collectives. C’est comme si le maintien de la fulgurance de l’échange combiné à la disparition des contraintes du face à face libéraient les pulsions rageuses. Il va falloir apprendre à dominer ce nouveau canal d’échange et… à se dominer en lui. Des formes laborieuses d’autocensure collective se mettent en place, à cette fin, comme notamment le fameux Point Godwin, un aphorisme de culture vernaculaire se formulant, un peu pompeusement, comme suit: Toute cyber-discussion dont le ton monte voit la probabilité qu’un des participants y fasse référence à Hitler ou au nazisme tendre vers 1. (Quand un participant finit par oser mentionner Hitler ou le nazisme, pour quelque raison que ce soit, et même sans agressivité, on l’enguirlande en lui mentionnant, d’un air hautain, qu’il vient d’atteindre le Point Goodwin). Certaines listes d’échanges électroniques deviennent éventuellement tellement fliquées par leurs modérateurs qu’elles en meurent tout simplement d’inanition.

1994: le très étrange feuilleton ReBoot, créé à Vancouver (Canada) par Gavin Blair et toute une équipe, est la première série télévisée constituée exclusivement d’animations par ordinateur (chaque épisode dure une demi-heure, la série durera jusqu’en 2001). La même année, le film The Mask de Chuck Russell incorpore étroitement jeu d’acteur et effets visuels conçus par ordinateur. Un an plus tard (1995) le premier long-métrage du triptyque Toy Story de la compagnie de cyber-animation Pixar fera un tabac en salles. Des voix annoncent alors la disparition de l’acteur et de l’actrice au profit de l‘animatron informatique. Inutile de dire qu’on attend toujours, quelques vingt ans plus tard, la concrétisation de cette nouvelle prédiction hasardeuse.

1995: lancement du MP3 qui, en cinq ans, va révolutionner la façon de saisir la musique sur un support, de la consommer et de la pirater. Une durable bataille de copyright s’ensuit qui perdure encore. Apparition graduelle du webcam (enfin une anticipation Star Trek va finir par factuellement se réaliser: la vidéophonie). Lancement du site de vente aux enchères eBay. Il deviendra rapidement un incontournable mondial de la cyber-brocante et il rebondira régulièrement dans l’actualité pour la rareté ou l’incongruité des objets qu’on y trouve. Certains cinéastes ont même déclaré avoir acheté le gros des décors de leurs films d’époque sur eBay.

1995 puis 1998: lancement par Microsoft de la série des systèmes d’exploitation Windows.

1995-2000: intensification de la peur du bug de l’an 2000. Âge d’or des site web non-interactifs (les couleurs vives, les micro-animations papillonnantes) et guerre des premiers fureteurs (Netscape, Explorer, etc). On apprend tous à bookmarquer. Pour se partir un site web alors, il fallait savoir programmer en HTML et explicitement obtenir la permission de se nicher (d’être hébergé) sur un serveur spécifique. Pas facile.

1998: lancement du moteur de recherche Google. En moins de dix ans il surclassera ses six ou sept concurrents (Lycos, Yahoo, Copernic, etc). On apprend tous à googler. La curieuse petite comédie sentimentale You’ve got mail de Nora Ephron raconte l’histoire de deux cyber-tourtereaux qui se connaissent (en personne) et se font, en fait, grise mine dans la vie réelle tout en tombant amoureux en ligne. Première incorporation du cyber-anonymat (et de sa dualité) dans l’intrigue d’un film.

2000: le fameux bug de l’an 2000 est vite éventé. Débuts de la technologie et de la philosophie de l’open source. Le jeune hacker Mafiaboy lance sa série d’attaques informatiques et se fait pincer après avoir causé son lot de dégâts. Le virus ILOVEYOU infecte des dizaines de millions d’ordis à travers le monde. On découvre que ces petites amusettes visuelles qu’on peut se faire envoyer par courriel et qui nous déridaient tant dans la décennie précédente peuvent être malicieuses. On apprend, la mort dans l’âme, à effacer ces attachements sans les ouvrir.

2001: lancement de Wikipédia. Il est maintenant possible à tous d’intervenir directement sur Internet. En une décennie, cependant, Wikipédia renoncera graduellement à son ouverture intégrale.

2001-2003: la généralisation de la technologie du wiki (la mise en ligne instantanée) voit la fin de la technicité ésotérique de la mise en ligne et le début des sites interactifs. Il devient de plus en plus facile de se partir un site web gratuitement. L’impact de masse de ce fait sera vite palpable.

2002: lancement du fureteur Firefox. Disparition de Netscape. La guerre des fureteurs se calme.

2003: lancement de la plateforme WordPress, de MySpace (qui sera éventuellement surclassé par Facebook), de Skype et du site de réseautage professionnel LinkedIn. Apparition semi-spontanée de 4chan et de /b/, le ci-devant «trou du cul de l’Internet», viviers de toute une culture vernaculaire cryptique, extrême, initiatique et cynique qui sera une source majeure de cyber-harcèlements anonymes, de hackings illicites et l’un des grands ateliers d’engendrement du phénomène du mème.

2004: lancement de Facebook, dont on peut dire, sans exagérer, qu’il est le principal support technologique d’une véritable révolution ethnoculturelle mondiale. L’Internet désormais est le vecteur d’un intensif réseautage social. Il ne s’agit plus de s’isoler du monde mais de profondément s’y raccorder.

2005: lancement de YouTube. En cinq ou six ans, il deviendra le vecteur incontournable de la célébrité sans intermédiaire et de la hantise du «devenir viral».

2006: lancement de Twitter, qui passera vite d’une structure de micro-suivage à une sorte de fil de presse instantanéiste mondial. Lancement de Wikileak que les tartuffes médiatiques dénoncent bruyamment mais consultent (et citent) intensivement.

2007: apparition du iPhone d’Apple. L’année suivante (2008), il est possible de l’utiliser en wifi, (technologie sans fil) sans obligation de raccord à un ordinateur. Le téléphone, ce vieil instrument désormais intégralement renouvelé, devient alors une partie profonde de l’identité d’une personne. Mais, désormais, il vous relie à votre réseau social (incluant votre employeur) et ce, en permanence. Cela représente déjà comme une sorte de poids, pour certains…

2008: débuts discrets du Carnet d’Ysengrimus. La typologie des blogues qu’il propose en 2009 tient toujours, malgré la graduelle mise en jachère de nombreux cyber-carnets.

2009: on recommence doucement à parler de robots anthropomorphes et à en montrer dans des foires technologiques. Le film Moon de Duncan Jones incorpore à son scénario l’interaction d’un humain, seul sur une base lunaire, avec un robot semi-anthropomorphe du nom de Girty. Ouvertement et très ostensiblement réminiscent du Hal de 2001: A Space odyssey et initialement sourdement inquiétant de par cette réminiscence, Girty (auquel l’acteur Kevin Spacey prête sa voix) s’avère un serviteur prompt, affable, stylé, attentionné, respectueux, sans malice, et cocassement expressif. Fermant, quarante ans plus tard, le cycle inquiet ouvert par Hal, le robot Girty incarne magistralement le passage de l’ordi Golem fantasmé à l’ordi instrument quotidien, banalisé, ordinaire et ami. Apparition du Bitcoin (monnaie virtuelle) qui, en quelque années, quittera le monde du jeu vidéo, se verra accepté par maint cyber-commerçants, et soulèvera tangiblement la question juridico-financière des transactions et des mises en circulation de fonds libellés en monnaie virtuelle.

2005-2010: âge d’or des blogues. On pourrait aussi dire: les années troll. Graduellement Twitter et Facebook vont assumer des fonctions qu’assumaient initialement les blogues personnels. Mise en place imperceptible du slow-blogging. Contestation croissante du cyber-anonymat par les cyber-médias officiels. On apprend tous à éviter au mieux de nourrir la cyber-provoque (Don’t feed the Troll!). Certains cyber-intervenants s’identifient très étroitement à la seconde identité que leur confère leur pseudonyme.

2010-2013: Il est devenu naturel de jauger le profil social ou sociologique d’une personne par sa présence ou son absence en la constellation des cyber-dispositifs (premières pages Google, Facebook, LinkedIn, 4chan, blogues personnels, etc). La notion de réseaux sociaux et de médias sociaux est désormais une idée ordinaire. Et l’ordi est désormais, tout naturellement, un outil de documentation, un aide mémoire et un instrument de raccord social.

world_internet_keyboard

Il est assez patent qu’on est passé de l’ordinateur Golem à l’ordi connecteur social. Quel que soit le jugement qu’on porte sur la portée intellectuelle et ethnoculturelle des faits que je retiens ici comme exemplaires (et make no mistake: beaux ou laids, grandioses ou riquiqui, ils sont exemplaires), il s’avère que l’anticipation formulée dans la première phase rate totalement son coup pour ce qui est de prévoir les immenses phénomènes sociologiques de la seconde phase… Qui ira encore, après un ratage aussi tonitruant, appeler un roman de science-fiction un roman d’anticipation? Anticipation mon fion. La seule à avoir vraiment anticipé, c’est Mary Shelley (1797-1851), et c’est sur ce sur quoi on allait collectivement fantasmer qu’elle a anticipé, rien de plus. Les œuvres du vingtième siècle ayant déliré les androïdes, les robots et les ordinateurs n’ont finalement pas anticipé grand-chose de factuel (et la notion d’uchronie est bien plus adéquate pour les décrire – cela ne s’est pas passé et ne se passera jamais). Ces oeuvres ont simplement exprimé des hantises qui étaient bien plus celles de leur temps que celles du futur. La grande peur post-orwellienne de l’ordinateur déshumanisant rappelle bien plus la réification industrielle et/ou usinière (pour ne pas mentionner la rigidité politique –rigidité des blocs- issue de la guerre froide) du siècle passé. On voit co-exister un peu éclectiquement, dans la première phase, spéculation universitaire (largement exploratoire, décrochée et, disons la choses comme elle est, en grande partie stérile aussi) de l’informatique et du cybernétique et fiction populaire de l’inhumain ordinateur totalitaire et du méchant robot fauteur de troubles. On hypertrophie aussi les pouvoirs de l’ordinateur. On en fait un «cerveau électronique». On lui impute, dans cette phase mythique, et ce, au plan du bobard le plus ouvertement foutaisier, des aptitudes fantastiques, merveilleuses, formidables. On sait, dans la phase pratique, qu’il ne détiendra pas de telles facultés avant fort longtemps, si jamais. Parallèlement, presque en autarcie industrielle (car, dans ce temps là, l’ordinateur domestique, on y croyait pas trop), apparaissent les cartes perforées, les grands ordinateurs, les premiers microprocesseurs à clavier, les terminaux aux lettrages fluo. Ils vrillent leur chemin vers la vie ordinaire sans que le public sache encore exactement à quoi ils servent exactement. Il semble bien que personne ne pouvait vraiment le prévoir, en fait. La révolution des mœurs qu’ils enclencheront sera, de fait, une surprise totale.

En gros donc, aux vues de la phase mythique, l’ordinateur déshumanise et il faut le débrancher pour sauver l’humanité. Ce qui se réalisa est le contraire, presque le contraire diamétral. J’ai pas besoin de vous faire (ou de vous imprimer) un dessin. Au jour d’aujourd’hui, l’ordi nous raccorde et est un des instruments incontournables de la culture collective mondiale. Il est aussi devenu cet implacable curseur social au moyen duquel on se juge lapidairement les uns les autres (votre-employeur-brother ne s’y est pas trompé), on se passe les antennes sur le dos, on se rencontre, on se découvre, on se masque et se démasque, on collabore, on fomente de grands projets collectifs, au mépris des distances et des limitations venues justement de ces pouvoirs centralisés qu’on imputa, à grand tort, à l’ordinateur mythique de jadis (lesdits pouvoirs, politiques et économiques, toujours menaçant mais incroyablement archaïque, dépassés, réacs, sont désormais, aussi, tendanciellement passablement anti-ordi). Tout comme le M5 aveugle de Star Trek, le grand ordinateur collectif d’aujourd’hui n’a pas de bouton interrupteur et ce, malgré Joe Lieberman et bien d’autres qui souhaiteraient pouvoir l’éteindre à leur guise. C’est pas possible encore, mais pour combien de temps… mais n’anticipons pas! Conclusion, conclusion: bon, continuons de préparer l’avenir et gardons un œil prudent et autocritique sur toutes nos futurologies. Elles parlent de nous, ici, en fait, et pas toujours dans les meilleurs termes. Et, comme c’est pas fini, l’ordi, eh ben, il y en a encore pas mal à dire…

.
.
.

Paru aussi (en deux parties) dans Les 7 du Québec:    PARTIE 1.    PARTIE 2.

.
.
.

21 Réponses to “De l’ordinateur comme objet mythique à l’ordinateur comme objet pratique: une chronologie sélective en deux phases”

  1. Caravelle said

    C’est remarquablement probant ce que tu nous fais observer à propos de la pérennité contemporaine de la créature de Frankenstein. Tu serais fasciné par les histoires de Golem que nous racontaient les vieillards du quartier dans mon enfance…

    [Il faudrait que vous nous en racontiez une ou deux… – Ysengrimus]

    • Caravelle said

      Il y en a une, qui rappelle l’apprenti-sorcier, qui me terrifiait dans mon enfance. Un forgeron du ghetto de Bucarest a besoin d’un puisatier mais personne n’est disponible. Il se fabrique donc, avec du métal, des rouages, et de la toile, un golem dont les cheveux sont en limaille de fer. Il fait venir le rabbin et lui fait bénir le golem qu’il a couché dans un lit, sous une couverture, en faisant croire que c’était son fils malade. Le golem prend vie et, après maintes mésaventures, le forgeron finit par arriver à lui faire puiser des seaux d’eau pour lui. Tu imagines la suite. Ayant été béni par le rabbin comme s’il était un enfant humain qu’il fallait soigner d’urgence, le golem se met à développer une forme grossière d’autonomie et il puise de l’eau sans arrêt, ignorant les autres ordres du forgeron. Ce dernier risque de finir inondé. Paniqué, il pointe un fer rouge à la tête du golem et finit par le faire reculer et plonger dans le puit. On présume que le golem s’y est oxydé et y git immobile mais rien n’est certain car du fond de ce puit spécifique, on entend parfois des bruits métalliques bizarres et dans son eau on trouve parfois de la limaille blanche, filandreuse mais dure, comme les cheveux blanchis d’un golem vieillissant. Je pense encore à cette histoire de mon enfance quand je passe près d’un puit.

      [Magnifique. Terrifiant… – Ysengrimus]

      • Fridolin said

        Mais alors, il est très ancien, le fantasme du robot!

        [Comme les tapis volants et l’eau de jouvence… il est séculaire. – Ysengrimus]

  2. Robert Huet said

    J’ai eu mon premier ordinateur en 1982, c’était un VIC 20 de Commodore et on pouvait y connecter un modem qui était très lent. Je m’étais fait une idée sur l’évolution de l’ordinateur pour les prochaines décennies mais peine perdue, je me suis gouré totalement. Vous avez parfaitement raison. On croyait voir une évolution pour l’avenir de l’ordinateur personnel mais ce devenir fût tout-autre.

    [Oh, on se faisait de ces petites prédictions personnelles bien à nous avec ce qu’on avait. Je me souviens, dans les années 1990, quand on envoyait un article (sur papier) en Europe, il fallait joindre une disquette bien pincée entre des cartons. L’apparition du scanner m’avais amené à penser qu’un jour on n’aurait plus besoin de joindre la disquette. Un texte papier bien propre suffirait. Il serait simplement scanné par l’éditeur… Deux ou trois ans plus tard, je découvrais le texte en attachement… – Ysengrimus]

  3. Le boulé du village said

    Y a pas longtemps, j’ai vu le film Jumpin’ (pas jumping) Jack Flash avec Whoopi Goldberg en début de carrière. Les affaires d’ordi on mal vieilli dans ça. Ayoye. Ça fait kétaine à planche. Intéressant juste pour Goldberg à ses débuts. Pour le reste, vraiment pas bon…

    [Correction faite, merci. – Ysengrimus]

  4. Sophie Sulphure said

    La mort d’un mythe de Grande Peur. La naissance d’une utilisation qui contraint souvent passablement aussi.

    [Voilà, Sophie. La Contrainte diurne succède à l’Épouvante nocturne… – Ysengrimus]

  5. Serge Morin said

    C’est fou d’anticiper si mal des choses qu’on prépare si bien. Ça me rappelle je sais plus quel chef de compagnie d’ordis, Bill Gates, je pense, qui avait dit que 640K ce serait en masse pour des ordis domestiques. C’est pas comme si il disait ça sans connaitre son affaire, en watcheux de Lost in Space ou en liseux de Bob Morane… Et pourtant, il a fait un fou de lui avec cette prédiction là, lui aussi…

    [Bonne remarque, Serge. L’anticipation a pas juste raté son coup dans les masses mais, en grande partie, chez les experts aussi. Et pourtant, pour nous tous, c’est finalement venu. Toute une leçon de modestie… – Ysengrimus]

    • Vanessa Jodoin said

      C’est ici, Serge:

      LES DOUZE PIRES PRÉDICTIONS TECHNOLOGIQUES DE TOUS LES TEMPS
      (en anglais)

      Les 640K, c’est bien Bill Gates. Mais il disait pas ça juste des ordis domestiques mais de TOUS les ordinateurs personnels…

      • Le boulé du village said

        Wow! Vanessa, wow!

        Le top c’est le british du 19ième siècle qui dit que les téléphones, c’est bon pour les amerloks mais que les british peuvent s’en passer, ont pas besoin de t’ça. Le gars de 20th FOX qui prédit que le monde vont se tanner en six mois de regarder une boite de plywood au fond de leur salon (télévision) est pas pire lui non plus. Est pu en plywood mais on la watche encore!

        Vraiment comique.

  6. Sissi Cigale said

    Présentation du MINITEL vers 1981. Un autre univers.

    [Ouf, ma jeunesse… – Ysengrimus]

  7. Fridolin said

    Et, en plus, ça continue les prédictions prévoyantes au destin imprévisible…

    LE PRÉSIDENT POURRAIT OBTENIR LE POUVOIR D’ÉTEINDRE L’INTERNET
    (en anglais)

    [Oh, oh! Joe Lieberman, sort de ce corps! – Ysengrimus]

  8. Tourelou said

    L’ordinateur n’est que le véhicule. C’est la route ou autoroute, sans frontière sur la planète qui se déploie. Beaucoup y font du pouce, et sans limite de vitesse, c’est une liberté virtuelle encore accessible. Est-ce que le physique sensoriel a un futur?

  9. PanoPanoramique said

    C’est fou comment on a passé tout ce temps là à se redire l’histoire de Frankenstein. Aujourd’hui, l’ordi, c’est ben plus Dracula. Ça te suce ta vie et ça te transforme en animal à sucer la vie des autres, dans un grand network vampirique de suceux de vie.

  10. […] ici vous convoquer à une petite chronologie sélective en deux phases (…).» Source : ysengrimus.wordpress.com/2013/11/01/de-lordinateur-comme-objet-mythique-a-lordinateur-comme-objet-pr… Billets en relation : 16/05/2013. Générations communicantes : […]

  11. […] d’une certaine mythologie, que l’on peut découvrir aussi de façon induite dans le passionnant article de P. Laurendeau où il revient en deux temps (le premier comme objet mythique, le deuxième comme […]

  12. Kalinine said

    La mémoire commence à solidement s’installer dans le cyber-monde.

    http://rue89.nouvelobs.com/2014/12/10/lache-coms-avant-facebook-y-avait-skyblog-souvenez-256488

    [De très intéressants témoignages des fleurons d’une cyber-époque. Merci Kalinine. – Ysengrimus]

  13. Mura said

    Mais le type de mythomanie signalée par Ysengrimus se perpétue aussi…

    http://rue89.nouvelobs.com/2014/12/21/les-machines-mettent-a-juger-a-place-va-bientot-flipper-256664#comment-4372264

  14. Amir said

    Un article très intéressant, il monte en même temps comme la technologie est entrée au fur et à mesure dans notre vie. Merci.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s