Big Brother is all of us… [Big Brother, c’est nous tous…]
Nouveau dicton populaire
.
.
.
L’ordinateur fut l’un des objets les plus mal anticipés qui soit. Le voyant pourtant venir de fort loin, on a passé presque un siècle à fantasmer l’impact qu’il était voué à avoir sur nos vies et, dans cette immense futurologie ratée, on n’a à peu près rien vu de ce qui venait vraiment. C’est parfaitement atterrant. J’aimerais ici vous convoquer à une petite chronologie sélective en deux phases. Elle est, certes, marquée au coin d’une trajectoire culturelle et technologique toute personnelle (surtout lors de la première phase, où je picore un peu au hasard dans le gargantuesque cloaque de la culture sci-fi du temps, en matière d’ordinateurs et de computation – c’est quand même pas tout le monde qui a lu et relu pieusement Les bulles de l’Ombre Jaune). Mais il s’agit ici indubitablement d’une sélection de faits significatifs en ce qui concerne les dimensions mythique (première phase) et pratique (seconde phase) de l’ordinateur dans notre vie collective. Matez-moi un peu ça. Le contraste entre les deux dimensions de la bécane (la mythique et la pratique) est hurlant.

Des ordinateurs, circa 1970
.
.
.
PHASE 1: L’ORDINATEUR COMME OBJET MYTHIQUE
1818: le roman Frankenstein, or the modern Prometheus de Mary Shelley, présente une version scientiste du vieux mythe du Golem (un perso fabriqué de main d’homme qui devient potentiellement dangereux). L’impact de ce roman, et de ses sous-produits littéraires et cinématographiques, sur l’imaginaire de masse du siècle suivant sera tonitruant.
1928: la compagnie IBM (International Business Machines) fait breveter la fameuse carte perforée à quatre-vingt colonnes, devenue depuis l’archétype du genre. J’ai vu de mes yeux, dans ma jeunesse (circa 1978, cinquante ans plus tard donc), un gros ordi de bureau aspirer une pile de ces cartes. On savait pas exactement ce que ça foutait mais qu’est-ce que c’était impressionnant à voir aller.
1936: introduction, dans un article scientifique, de la machine de Turing. C’est une réflexion sur la proto-computation (ladite machine n’exista jamais que sur papier).
1947: des mathématiciens américains, britanniques et français réunis en congrès à Nancy (France) commencent à conceptualiser le programme de travail de la cybernétique, pour le moment une affaire de matheux pas trop claire. Apparition de la notion de bug. La légende veut qu’un insecte se serait coincé dans le dispositif d’un grand ordinateur expérimental, causant des avaries. Marginale dans la période mythique (cette dernière étant hautement réfractaire à l’idée du moindre pépin amenant l’ordinateur à «se tromper»), la notion de bug est devenue courante (voire galvaudée) avec la banalisation de l’ordi comme instrument ordinaire.
1949: le roman 1984 de George Orwell popularise l’idée d’une dictature omnisciente, centralisée, hautement scrutatrice (Big Brother is watching you) et surtout, reposant largement sur un support technologique, machinal, et parfaitement nuisible à la liberté de conscience et d’action.
1950: le recueil de nouvelles I, Robot, d’Isaac Asimov popularise l’idée du robot anthropomorphe, serviteur puissant, toujours potentiellement menaçant, et susceptible de prendre intempestivement les commandes de la vie sociale, au risque de la rendre machinale et insensible. L’idée de robotique (et les fameuses trois lois fondamentales de la robotique) remonte à ces textes de science-fiction.
1954: la compagnie IBM lance son premier grand ordinateur commercial. Ce n’est évidemment pas un objet destiné au grand public.
1955: invention du premier langage informatique par IBM, le FORTRAN.
1956: fondation officielle d’une discipline de recherche vouée à un essor durable (et à un bonheur variable): l’intelligence artificielle.
1957: apparition, dans des publications scientifiques (d’abord en allemand puis en français), du mot informatique (construit sur mot-valise à partir des mots information et automatique). Si le mot est désormais formulé, ça doit être que la chose s’en vient…
1961: mise en marché, par le conglomérat Coca-Cola, de la boisson gazeuse citronnée Sprite. «Quel rapport?» me direz vous. Tout un rapport. De fait, on fera longtemps croire au consommateur que le nom Sprite fut généré aléatoirement, une lettre après l’autre, par un ordinateur. Cette foutaise, présentant le ci-devant «cerveau électronique» comme une sorte de marmite de sorcier semi-magique, se joindra à une longue et tortueuse série de procédés rhétoriques mythifiant ouvertement le rôle calculatoire voire «intellectuel» de l’ordinateur. «Après avoir mis tous ces chiffres dans les ordinateurs du ministère des finances, ils nous ont transmis les résultats suivants…» C’est aussi à cette époque que se met à circuler l’idée voulant que l’ordinateur ne fasse jamais d’erreur, que ce soit l’humain qui le programme qui soit le seul à se tromper. Inutile de dire qu’il ne reste plus grand-chose de cette culture canulardière computationnelle depuis que l’ordi est devenu un objet de tous les jours.
1962-1963: le dessin animé The Jetsons met en vedette une famille futuriste de 2062, se déplaçant en voiture-aéronef et vivant dans une maison technologique (c’est le pendant futuriste des Flinstones). Au nombre des personnages, on retrouve Rosie, un robot bonne d’enfant qui fait la bise aux gamins, en les mettant au lit, avec sa bouche fixe laissant sur la joue la sensation d’un petit aspirateur.
1963: la compagnie Honeywell lance son premier grand ordinateur commercial. Dans ces années là, un ordinateur (computer), dans la vision qu’on en a, c’est un gros appareil mural avec des bobines tournant aléatoirement, des types en sarreau blanc ou des dames très sérieuses se tenant devant, et on est dans les bureaux souterrains secrets du Pentagone, de la NASA ou de General Electric.
1965: début de l’hégémonisme intellectuel de la Grammaire Générative Transformationnelle de Noam Chomsky. Elle imposera la chape de plomb d’une mythologie machiniste qui pèsera de tout son poids sur les sciences humaines universitaires pendant au moins trente ans. Inutile de dire que la grammaire-machine chomskyenne ne fut jamais réalisée.
1965-1968: la série télévisée à succès Lost in space raconte les pérégrinations de la famille Robinson perdue dans l’espace dans son vaisseau-soucoupe, le Jupiter II. Le robot serviteur de la famille signale les dangers en criant Danger! Danger! Mais il peut parfois aussi être déprogrammé par un traître et se retourner contre la famille. Il frappe alors le gros ordinateur de bord scintillant de ses larges pinces et tout pète dans un flot décourageant de flammèches et de boucane.
1966: l’épisode de Star Trek intitulé What are little girls made of? introduit, pour la toute première fois, la notion d’androïde (android), qui sera amplement reprise, notamment, au sein de ladite saga Star Trek, avec les personnages des androïdes Data et Lore (dans Star Trek: the next generation). Ici (en 1966) l’androïde, fabriquée de main d’homme, s’appelle Andrea et elle est pleinement opérationnelle pour la réalisation de l’intégralité des fonctions biologiques humaines (le mythe de Pygmalion s’enchevêtre dans l’affaire — je vous passe les détails)… On rencontre aussi l’androïde Ruk, gaillard frankensteinesque, baraqué, costaud et peu amène. Véritable ordi pleinement anthropomorphe, surhumain mais aspirant tendanciellement à l’humanité (I am not a computer! s’exclamera un de ces personnages), l’androïde apparaît comme un dangereux serviteur qui, si on en perd le contrôle, peut faire des ravages. Lors de telles crises, il faut finaudement éberluer l’androïde en le tirant vers ses tendances humaines et/ou en lui instillant des émotions non machinales sur fond inquiétant de paradoxes insolubles.
1967: le compositeur de musique électroacoustique Pierre Henry crée la bande musicale du ballet Messe pour le temps présent du chorégraphe Maurice Béjart. L’étrange pétarade électronique de Psyché Rock et de Jéricho Jerk change radicalement notre perception du son musical qui jouera désormais dans le petit radio de la cuisine. Un an plus tard (1968), l’album Switched-On Bach de Walter/Wendy Carlos nous donne à entendre, pour la toute première fois, du Jean-Sébastien Bach joué sur cette nouvelle invention d’un certain Robert Arthur Moog, le clavier synthétiseur. Deux ans plus tard (1969), l’album Moog plays the Beatles de Marty Gold fera avancer cette sonorité nouvelle d’un cran plus profond au sein des âmes mélomanes. Dans les deux décennies qui suivront, des instruments de musique programmables de plus en plus sophistiqués vont faire leur apparition. Le piano électrique, le mellotron et le ci-devant synthétiseur de Moog (pour s’en tenir ici aux plus vénérables — les tous premiers n’étaient pas spécialement computarisés. On avait, ici encore une fois, largement affaire à de l’informatique fantasmée) vont imposer leurs sonorités pimpantes et machinales dans la musique populaire. Frisson angoissé. À cause de l’aptitude imitative de certains de ces claviers électroniques, il va vite se trouver des voix pour annoncer la disparition prochaine des guitares, des cuivres, des bois et du piano à cordes. Une futurologie ratée de plus. On attend encore (et je ne vais pas pleurer ce ratage là — ordi et musique font aujourd’hui très bon ménage, l’un servant l’autre magistralement, pour le plus grand bonheur de l’oreille et de la diversité artistique la plus riche imaginable).
1968: dans le célèbre long métrage 2001: A space Odyssey de Stanley Kubrick, l’ordinateur central de bord d’une mission spatiale vers Jupiter, invisible (parce qu’omniprésent), doucereux et déférent (il s’appelle Hal et a une voix feutrée inoubliable), constate froidement que les cosmonautes du navire nuisent aux opérations et, donc, il les tue calmement, un par un, comme si c’était des parasites. On le débranche à temps, mais ça passe juste. La même année, dans l’épisode de Star Trek intitulé The Ultimate computer, on propose au capitaine James T. Kirk de se faire remplacer par un ordinateur central qui contrôle son navire. Cela fout le bordel meurtrier dans la flotte de la Fédération des Planètes et il faut finir par débrancher l’ordinateur M5, que son inventeur, un peu savant-fou sur les bords, traite comme son enfant. Il va sans dire que le tout ne se fait pas sans casse car l’ordinateur en question n’a tout simplement pas de bouton interrupteur…
1970: dans le roman de la série Bob Morane intitulé Les bulles de l’ombre Jaune, Henri Verne transporte ses héros, agents de la ci-devant Patrouille du Temps, en l’an de grâce 3222. Ils arrivent alors à Niviork (New York), inquiétante mégapole en ruine (suite à un conflit nucléaire) dont toutes les activités sont coordonnées par un gigantesque cerveau électronique central nommé Ibémé (on apprend éventuellement que ce nom dérive d’IBM). Sorte de Baal abstrait au sommet d’une pyramide à degrés, Ibémé assure l’intendance de cycles obligatoires de sacrifices humains. Il faudra donc le détruire car il est parfaitement nuisible à la vie humaine.
1974-1978: la série télévisée The six million dollar man lance et popularise le mythe de l’homme bionique, un être humain accidenté qu’on retape et améliore en le réparant avec de la technologie programmée, amplifiant ses capacités physiques (et éventuellement mentales). De la femme bionique à la civilisation Borg, en passant par RoboCop et le Terminator, ce concept de fusion entre l’humain et la machine aura une riche postérité mythique.
1975: la compagnie Commodore commence à produire ses premiers terminaux à clavier. On parle alors beaucoup, sans trop comprendre à quoi ça rime, de puces (chips). Ce gros clavier avec écran penché, dont les touches font clac, clac, clac, on se demande ce que ça fout exactement et on y découvre surtout… des jeux.
1976: la compagnie Control Data embauche du prolo en masse à Montréal. Le principal boulot offert est celui de key-punch. Il s’agissait de dactylographier des données sur des machines à cartes perforées ressemblant un peu à de vieilles calculatrices de table.
1977, 1980, 1983: la première trilogie Star Wars de George Lucas renoue avec les thèmes échevelés, irrationalistes et manichéens du space opera et ne place pas vraiment la problématique de l’ordinateur en position centrale. On y rencontre cependant deux personnages de soutien qui contribueront pour la première fois à significativement renouveler l’image mythique de l’ordi. Le robot C-3PO est un droïde de protocole anthropomorphe, parlant 6,000 formes de communication. En dehors de cela, c’est un trouillard, un geignard et un ignare, mais il est difficile de ne pas le trouver insondablement attachant, tellement humain, en un mot, pour lâcher le mot. Beaucoup plus déterminant aux fins de la thématique, le robot non-anthropomorphe R2-D2 est un droïde d’entretien ne s’exprimant que par cyber-pépiements. Il est rien de moins qu’un super-terminal portatif autonome car il peut, de sa propre initiative ou sur demande, communiquer harmonieusement avec tous les mainframes imaginables, y compris ceux de l’ennemi. Mais surtout, en observant attentivement sa remarquable trajectoire, on découvre que R2-D2 est un serviteur discret, efficace jusqu’à l’omnipotence, sagace jusqu’à l’omniscience, et doté d’une extraordinaire élévation morale. Devenu une icône culturelle en soi, le droïde R2-D2 est incontestablement la première manifestation fortement positive et laudative d’une vision respectable, sereine et éthique de l’ordi, dans le grand cinéma de masse.
1978: un confrère, étudiant de fac en informatique de gestion, nous annonce triomphalement à la cantonade que, dans dix ans, tout le monde devra connaître un ou deux langages de programmation et que ce sera certainement FORTRAN et COBOL qui domineront ce nouveau champ de savoir populaire. L’explosion ultérieure du user-friendly (sans parler de l’apparition, chez les informaticiens, du Pascal, du C, du C++ du SQL, du Java, du Dot-net et j’en passe) rendra cette prédiction parfaitement inopérante, justement dans la décennie où elle était censée se réaliser.
1979: un jeune Ysengrimus de vingt-et-un printemps pianote sur un ordi pour la première fois de sa douce vie, dans une obscure salle de terminaux de la fac où il étudie. C’est justement un terminal. Le lettrage est vert fluo, il faut taper toutes sortes de codes cryptiques pour «entrer» dans le ci-devant mainframe et on a aucune idée de ce qu’on fout là exactement quand on y arrive. Inoubliable.
1980: la compagnie Atari introduit les premiers ordinateurs avec clavier et écran ne requérant pas qu’on pianote une litanie de commandes en code avant de se déclencher. Ils bootent (comme on disait alors) automatiquement sur allumage (tout un soulagement au demeurant) et servent surtout pour des jeux vidéo et la constitution de bases de données rudimentaires.
1981: apparition du robot industriel, servant notamment à l’assemblage des voitures. Cet appareil perfectionné de chaîne de montage portera un coup durable au fantasme asimovien du robot anthropomorphe. Désormais, un robot, c’est un type perfectionné de machine-outil utilisé dans l’industrie et non un compagnon domestique avec des yeux et une bouche pour parler. Et un androïde, bien ça n’existe tout simplement pas.
1982: le film de science-fiction Blade Runner de Ridley Scott incorpore des androïdes intégralement anthropomorphes en pagaille mais surtout, il met en scène une technologie de recherche d’informations préfigurant assez astucieusement l’Internet.

La machine de l’année pour 1983: le PC… L’ordi emménage…
.
.
.
PHASE 2: L’ORDINATEUR COMME OBJET PRATIQUE
1982: Mise en place graduelle du Minitel en France.
1983: popularisation du micro-ordinateur ou ordinateur personnel (PC pour personal computer). On apprend tous à jouer au grille-pain avec les disquettes et à enchâsser le rouleau de papier symétriquement déchiquetable dans l’engrenage des imprimantes-mitraillettes. Démarre alors la compétition entre MacIntosh (Apple) et ce qu’on appelle alors les clones d’IBM (derrière lesquels se profilera Microsoft). Le film WarGames de John Badham est le premier long métrage à succès mettant en vedette un hacker (il passe à deux doigt de déclencher un conflit nucléaire en prenant le simulateur guerrier logé dans le grand ordinateur Pantagoneux qu’il parasite pour un jeu vidéo).
1983-1989: les années traitement de texte. On pourrait aussi dire: les années WordPerfect. La souris et les icônes, nées chez Apple, puis reprises intempestivement par Microsoft, s’imposent durablement comme complément du clavier. On apprend tous à cliquer…
1984: apparition télévisuelle de Max Headroom, donné comme le premier personnage artificiellement généré (en fait un acteur lourdement maquillé — les effets d’ordi étaient encore très marginaux). La création de personnages et de mondes engendrés artificiellement connaitra, en vingt ans, une véritable explosion, notamment dans l’univers cyclopéen du jeu vidéo. Certaines de ces figures (on pense par exemple à Lara Croft ou aux Sims – l’énumération serait trop longue ici) deviendront de véritables icônes culturelles. Apparaîtra avec eux une notion (qui a été largement galvaudée et barouettée): le virtuel.
1986: dans le film Jumpin’ Jack Flash de Penny Marshall, la protagoniste voit, avec ébahissement, des messages s’écrire sur son terminal d’ordinateur sans que ses mains ne touchent le clavier. Un espion en détresse l’appelle à l’aide, à travers les arcanes du système. Ce film est un des premiers à incorporer l’envoi de quelque chose comme des courriers électroniques comme élément central de son intrigue.
1990: apparition de la procédure de retouches photographiques Photoshop. En deux décennies, il deviendra possible d’effectuer artisanalement le type de montages photos que seuls la CIA et le KGB pouvaient se permettre dans les décennies antérieures. Mais assez vite aussi, les retouches photos, privées et publiques, vont se généraliser au point de susciter un net désenchantement du public. Bientôt, le trucage d’images par ordinateur sera partout et, conséquemment, ne leurrera plus personne. La retouche photo deviendra donc graduellement un procédé jugé fort négativement et certaines personnalités la subissant iront jusqu’à intenter des poursuites légales pour altération de leur image publique.
1991-1997: décollage en force d’Internet dans les différents pays. C’est le temps des arcanes encore mystérieuses du www, du http, du dot-org et du dot-com. On se familiarise tous avec les hyperliens, qui font passer, en un éclair, d’un site à l’autre. Apparaissent aussi certaines envolées d’enthousiasme oratoire qui font sourire aujourd’hui comme cyber-espace ou autoroutes de l’information. Un certain pessimisme s’exprime aussi. On trouve l’Internet encore bien vide de contenu et surfer le net est alors perçu comme une fixation un peu schizo vous isolant de la vie sociale.
1993-1999: âge d’or du courrier électronique, des «listes» électroniques (sur lesquelles on a tous, un jour ou l’autre, posté un message privé par erreur) et… des pourriels (spam) qu’il faut effacer un par un, soi-même. Les premières binettes (emoticon) font leur apparition pour facialiser l’interaction et réduire la sécheresse des messages. C’est aussi le boom des légendes urbaines colportées par courriels pyramidaux et des petites amusettes iconiques fixes ou mobiles qu’on s’envoie entre amis. Un curieux constat se généralise. Les gens se conspuent souvent par courriel, même sur des listes collectives. C’est comme si le maintien de la fulgurance de l’échange combiné à la disparition des contraintes du face à face libéraient les pulsions rageuses. Il va falloir apprendre à dominer ce nouveau canal d’échange et… à se dominer en lui. Des formes laborieuses d’autocensure collective se mettent en place, à cette fin, comme notamment le fameux Point Godwin, un aphorisme de culture vernaculaire se formulant, un peu pompeusement, comme suit: Toute cyber-discussion dont le ton monte voit la probabilité qu’un des participants y fasse référence à Hitler ou au nazisme tendre vers 1. (Quand un participant finit par oser mentionner Hitler ou le nazisme, pour quelque raison que ce soit, et même sans agressivité, on l’enguirlande en lui mentionnant, d’un air hautain, qu’il vient d’atteindre le Point Goodwin). Certaines listes d’échanges électroniques deviennent éventuellement tellement fliquées par leurs modérateurs qu’elles en meurent tout simplement d’inanition.
1994: le très étrange feuilleton ReBoot, créé à Vancouver (Canada) par Gavin Blair et toute une équipe, est la première série télévisée constituée exclusivement d’animations par ordinateur (chaque épisode dure une demi-heure, la série durera jusqu’en 2001). La même année, le film The Mask de Chuck Russell incorpore étroitement jeu d’acteur et effets visuels conçus par ordinateur. Un an plus tard (1995) le premier long-métrage du triptyque Toy Story de la compagnie de cyber-animation Pixar fera un tabac en salles. Des voix annoncent alors la disparition de l’acteur et de l’actrice au profit de l‘animatron informatique. Inutile de dire qu’on attend toujours, quelques vingt ans plus tard, la concrétisation de cette nouvelle prédiction hasardeuse.
1995: lancement du MP3 qui, en cinq ans, va révolutionner la façon de saisir la musique sur un support, de la consommer et de la pirater. Une durable bataille de copyright s’ensuit qui perdure encore. Apparition graduelle du webcam (enfin une anticipation Star Trek va finir par factuellement se réaliser: la vidéophonie). Lancement du site de vente aux enchères eBay. Il deviendra rapidement un incontournable mondial de la cyber-brocante et il rebondira régulièrement dans l’actualité pour la rareté ou l’incongruité des objets qu’on y trouve. Certains cinéastes ont même déclaré avoir acheté le gros des décors de leurs films d’époque sur eBay.
1995 puis 1998: lancement par Microsoft de la série des systèmes d’exploitation Windows.
1995-2000: intensification de la peur du bug de l’an 2000. Âge d’or des site web non-interactifs (les couleurs vives, les micro-animations papillonnantes) et guerre des premiers fureteurs (Netscape, Explorer, etc). On apprend tous à bookmarquer. Pour se partir un site web alors, il fallait savoir programmer en HTML et explicitement obtenir la permission de se nicher (d’être hébergé) sur un serveur spécifique. Pas facile.
1998: lancement du moteur de recherche Google. En moins de dix ans il surclassera ses six ou sept concurrents (Lycos, Yahoo, Copernic, etc). On apprend tous à googler. La curieuse petite comédie sentimentale You’ve got mail de Nora Ephron raconte l’histoire de deux cyber-tourtereaux qui se connaissent (en personne) et se font, en fait, grise mine dans la vie réelle tout en tombant amoureux en ligne. Première incorporation du cyber-anonymat (et de sa dualité) dans l’intrigue d’un film.
2000: le fameux bug de l’an 2000 est vite éventé. Débuts de la technologie et de la philosophie de l’open source. Le jeune hacker Mafiaboy lance sa série d’attaques informatiques et se fait pincer après avoir causé son lot de dégâts. Le virus ILOVEYOU infecte des dizaines de millions d’ordis à travers le monde. On découvre que ces petites amusettes visuelles qu’on peut se faire envoyer par courriel et qui nous déridaient tant dans la décennie précédente peuvent être malicieuses. On apprend, la mort dans l’âme, à effacer ces attachements sans les ouvrir.
2001: lancement de Wikipédia. Il est maintenant possible à tous d’intervenir directement sur Internet. En une décennie, cependant, Wikipédia renoncera graduellement à son ouverture intégrale.
2001-2003: la généralisation de la technologie du wiki (la mise en ligne instantanée) voit la fin de la technicité ésotérique de la mise en ligne et le début des sites interactifs. Il devient de plus en plus facile de se partir un site web gratuitement. L’impact de masse de ce fait sera vite palpable.
2002: lancement du fureteur Firefox. Disparition de Netscape. La guerre des fureteurs se calme.
2003: lancement de la plateforme WordPress, de MySpace (qui sera éventuellement surclassé par Facebook), de Skype et du site de réseautage professionnel LinkedIn. Apparition semi-spontanée de 4chan et de /b/, le ci-devant «trou du cul de l’Internet», viviers de toute une culture vernaculaire cryptique, extrême, initiatique et cynique qui sera une source majeure de cyber-harcèlements anonymes, de hackings illicites et l’un des grands ateliers d’engendrement du phénomène du mème.
2004: lancement de Facebook, dont on peut dire, sans exagérer, qu’il est le principal support technologique d’une véritable révolution ethnoculturelle mondiale. L’Internet désormais est le vecteur d’un intensif réseautage social. Il ne s’agit plus de s’isoler du monde mais de profondément s’y raccorder.
2005: lancement de YouTube. En cinq ou six ans, il deviendra le vecteur incontournable de la célébrité sans intermédiaire et de la hantise du «devenir viral».
2006: lancement de Twitter, qui passera vite d’une structure de micro-suivage à une sorte de fil de presse instantanéiste mondial. Lancement de Wikileak que les tartuffes médiatiques dénoncent bruyamment mais consultent (et citent) intensivement.
2007: apparition du iPhone d’Apple. L’année suivante (2008), il est possible de l’utiliser en wifi, (technologie sans fil) sans obligation de raccord à un ordinateur. Le téléphone, ce vieil instrument désormais intégralement renouvelé, devient alors une partie profonde de l’identité d’une personne. Mais, désormais, il vous relie à votre réseau social (incluant votre employeur) et ce, en permanence. Cela représente déjà comme une sorte de poids, pour certains…
2008: débuts discrets du Carnet d’Ysengrimus. La typologie des blogues qu’il propose en 2009 tient toujours, malgré la graduelle mise en jachère de nombreux cyber-carnets.
2009: on recommence doucement à parler de robots anthropomorphes et à en montrer dans des foires technologiques. Le film Moon de Duncan Jones incorpore à son scénario l’interaction d’un humain, seul sur une base lunaire, avec un robot semi-anthropomorphe du nom de Gerty. Ouvertement et très ostensiblement réminiscent du Hal de 2001: A Space odyssey et initialement sourdement inquiétant de par cette réminiscence, Gerty (auquel l’acteur Kevin Spacey prête sa voix) s’avère un serviteur prompt, affable, stylé, attentionné, respectueux, sans malice, et cocassement expressif. Fermant, quarante ans plus tard, le cycle inquiet ouvert par Hal, le robot Gerty incarne magistralement le passage de l’ordi Golem fantasmé à l’ordi instrument quotidien, banalisé, ordinaire et ami. Apparition du Bitcoin (monnaie virtuelle) qui, en quelque années, quittera le monde du jeu vidéo, se verra accepté par maint cyber-commerçants, et soulèvera tangiblement la question juridico-financière des transactions et des mises en circulation de fonds libellés en monnaie virtuelle.
2005-2010: âge d’or des blogues. On pourrait aussi dire: les années troll. Graduellement Twitter et Facebook vont assumer des fonctions qu’assumaient initialement les blogues personnels. Mise en place imperceptible du slow-blogging. Contestation croissante du cyber-anonymat par les cyber-médias officiels. On apprend tous à éviter au mieux de nourrir la cyber-provoque (Don’t feed the Troll!). Certains cyber-intervenants s’identifient très étroitement à la seconde identité que leur confère leur pseudonyme.
2010-2013: Il est devenu naturel de jauger le profil social ou sociologique d’une personne par sa présence ou son absence en la constellation des cyber-dispositifs (premières pages Google, Facebook, LinkedIn, 4chan, blogues personnels, etc). La notion de réseaux sociaux et de médias sociaux est désormais une idée ordinaire. Et l’ordi est désormais, tout naturellement, un outil de documentation, un aide mémoire et un instrument de raccord social.

Il est assez patent qu’on est passé de l’ordinateur Golem à l’ordi connecteur social. Quel que soit le jugement qu’on porte sur la portée intellectuelle et ethnoculturelle des faits que je retiens ici comme exemplaires (et make no mistake: beaux ou laids, grandioses ou riquiqui, ils sont exemplaires), il s’avère que l’anticipation formulée dans la première phase rate totalement son coup pour ce qui est de prévoir les immenses phénomènes sociologiques de la seconde phase… Qui ira encore, après un ratage aussi tonitruant, appeler un roman de science-fiction un roman d’anticipation? Anticipation mon fion. La seule à avoir vraiment anticipé, c’est Mary Shelley (1797-1851), et c’est sur ce sur quoi on allait collectivement fantasmer qu’elle a anticipé, rien de plus. Les œuvres du vingtième siècle ayant déliré les androïdes, les robots et les ordinateurs n’ont finalement pas anticipé grand-chose de factuel (et la notion d’uchronie est bien plus adéquate pour les décrire — cela ne s’est pas passé et ne se passera jamais). Ces oeuvres ont simplement exprimé des hantises qui étaient bien plus celles de leur temps que celles du futur. La grande peur post-orwellienne de l’ordinateur déshumanisant rappelle bien plus la réification industrielle et/ou usinière (pour ne pas mentionner la rigidité politique —rigidité des blocs— issue de la guerre froide) du siècle passé. On voit co-exister un peu éclectiquement, dans la première phase, spéculation universitaire (largement exploratoire, décrochée et, disons la choses comme elle est, en grande partie stérile aussi) de l’informatique et du cybernétique et fiction populaire de l’inhumain ordinateur totalitaire et du méchant robot fauteur de troubles. On hypertrophie aussi les pouvoirs de l’ordinateur. On en fait un «cerveau électronique». On lui impute, dans cette phase mythique, et ce, au plan du bobard le plus ouvertement foutaisier, des aptitudes fantastiques, merveilleuses, formidables. On sait, dans la phase pratique, qu’il ne détiendra pas de telles facultés avant fort longtemps, si jamais. Parallèlement, presque en autarcie industrielle (car, dans ce temps là, l’ordinateur domestique, on y croyait pas trop), apparaissent les cartes perforées, les grands ordinateurs, les premiers microprocesseurs à clavier, les terminaux aux lettrages fluo. Ils vrillent leur chemin vers la vie ordinaire sans que le public sache encore exactement à quoi ils servent exactement. Il semble bien que personne ne pouvait vraiment le prévoir, en fait. La révolution des mœurs qu’ils enclencheront sera, de fait, une surprise totale.
En gros donc, aux vues de la phase mythique, l’ordinateur déshumanise et il faut le débrancher pour sauver l’humanité. Ce qui se réalisa est le contraire, presque le contraire diamétral. J’ai pas besoin de vous faire (ou de vous imprimer) un dessin. Au jour d’aujourd’hui, l’ordi nous raccorde et est un des instruments incontournables de la culture collective mondiale. Il est aussi devenu cet implacable curseur social au moyen duquel on se juge lapidairement les uns les autres (votre-employeur-brother ne s’y est pas trompé), on se passe les antennes sur le dos, on se rencontre, on se découvre, on se masque et se démasque, on collabore, on fomente de grands projets collectifs, au mépris des distances et des limitations venues justement de ces pouvoirs centralisés qu’on imputa, à grand tort, à l’ordinateur mythique de jadis (lesdits pouvoirs, politiques et économiques, toujours menaçant mais incroyablement archaïque, dépassés, réacs, sont désormais, aussi, tendanciellement passablement anti-ordi). Tout comme le M5 aveugle de Star Trek, le grand ordinateur collectif d’aujourd’hui n’a pas de bouton interrupteur et ce, malgré Joe Lieberman et bien d’autres qui souhaiteraient pouvoir l’éteindre à leur guise. C’est pas possible encore, mais pour combien de temps… mais n’anticipons pas! Conclusion, conclusion: bon, continuons de préparer l’avenir et gardons un œil prudent et autocritique sur toutes nos futurologies. Elles parlent de nous, ici, en fait, et pas toujours dans les meilleurs termes. Et, comme c’est pas fini, l’ordi, eh ben, il y en a encore pas mal à dire…
.
.
.
Paru aussi dans Les 7 du Québec.
.
.
.
Réflexion sur les fondements interactifs et informatifs du cyber-journalisme
Posted by Ysengrimus sur 15 février 2016
.
Il y a quelques temps, lors d’un débat sur Les 7 du Québec, deux de nos plus assidus collaborateurs ont eu l’estoc suivant, parmi bien d’autres. C’était au cœur d’un de ces grands élans digressifs dont je me tiens bien loin désormais comme participant mais que je lis toujours très attentivement, car la sagesse y percole souvent. Après que Lambda ait déploré la sempiternelle rudesse des échanges, Epsilon lui dit ceci:
Réponse de Lambda:
Ces deux interventions, surtout la seconde, synthétisent toute la problématique actuelle du journalisme citoyen. Le problème journalistique se formule désormais comme suit, c’est inévitable. Comme suit, je dis bien, c’est à dire dans les termes fort peu anodins d’une crise existentielle. Le journalisme est-il un corps de comportements communicatifs normés, fatalement aseptisés, reçus, stabilisés historiquement, avec une certaine façon ritualisée de colliger l’information, de la synthétiser, de la disposer, de la desservir, qui serait constante. Est-il un comportement produisant un corpus circonscrit?… un peu comme la poésie en vers ou les recettes de cuisine sont constantes et à peu près stabilisables à travers le temps.
Ou alors le journalisme n’est-il pas lui-même rien d’autre qu’une vaste manifestation perfectionnée (une parmi d’autres), justement, de mondanité et de formulation d’opinion, dont les cyber-ressources actuelles ne révèlent jamais que la profonde mutation contemporaine. Le journalisme, malgré ce qu’il voudrait bien faire croire, c’est pas une discipline rigoureuse comme, disons, la géométrie. Cela implique d’importantes questions. Le caractère «professionnel» ou «informé» du journalisme traditionnel est-il jamais autre chose qu’une illusion un peu parcheminée de classe élitaire (bien entretenue par la frilosité classique de l’esprit de corps, lui-même effarouché par le progrès que l’explosion actuelle impose). Les divers journalismes jaunes, la presse poubelle ou potineuse ne sont pas des inventions très récentes. Les élucubrations bobardeuses journalistiques, les diffamations de personnalités politiciennes et les relations de rencontres d’OVNI, sont vieilles comme le journalisme. L’internet est loin, très loin, d’avoir inventé tout ça. L’internet n’a pas inventé non plus le discours polémique, dont en retrouve des traces virulentes jusque chez les Grecs et les Romains.
L’élément nouveau des conditions journalistiques contemporaines ne réside pas vraiment non plus dans le fait que n’importe quel ahuri peut s’improviser diffuseur d’information de presse. Rappelons-nous, un petit peu, de l’époque pas si lointaine où celui qui contrôlait le chantier de coupe de bois contrôlait la pulpe, que celui qui contrôlait la pulpe contrôlait le papier, et que celui qui contrôlait le papier contrôlait à peu près tout ce qui s’écrivait dessus. Le journalisme n’a JAMAIS existé dans un espace intellocratique serein et éthéré. Cela n’est pas. Et l’objectivité de la presse, depuis sa conformité au factuel jusqu’à l’équilibre des opinions qu’elle véhicule, a toujours été un leurre de classe, dont l’unique bonne foi, toute épisodique, fut de se laisser aller parfois à croire à sa propre propagande.
L’opposition entre mes deux intervenants ici pose de facto une triade critique Facebook/média citoyen/média élitaire et, nul ne peux le nier, c’est l’espace intermédiaire, celui du média citoyen, qui se cherche le plus et ce, à cause du poids des deux autres. Un mot sur ces trois facettes du tripode.
Médias journalistiques élitaires. Ils sont foutus en terme de crédibilité fondamentale et plus personne de sérieux ne cultive la moindre illusion au sujet de leur partialité de classe. En plus, ils se détériorent qualitativement, en misant de plus en plus sur des pigistes et des gloses et traductions-gloses d’agences de presse. L’électronique les tue lentement comme distributeurs d’un objet (commercial) matériel traditionnel, ce qui les compromet avec une portion significative de leurs lecteurs d’antan. L’éditorial d’autrefois, donnant péremptoirement la ligne d’un quotidien ou d’un hebdomadaire, n’est plus. Il a été remplacé par des chroniques de francs-tireurs vedettes portés plus par leur succès d’audimat que par une base doctrinale effective. À cause de tout cela, un temps, on croyait vraiment les journaux conventionnels condamnés. Mais ils ont manifesté une notable résilience. Mobilisant leurs ressources, ils se sont adaptés, étape par étape, aux différents cyber-dispositifs et, en s’appuyant sur des ressorts empiriques (apprentissage collectif graduel du fonctionnement des blogues journalistiques, menant à leur noyautage) et juridiques (intimidation de plus en plus virulente des formes de discours et de commerce alternatif), ils on refermé un par un les différents verrous de la liberté d’expression et d’action, tout en restant de solides instruments de diffusion de la pensée mi-propagandiste mi-soporifique de la classe bourgeoise. Une fois de plus on observe qu’une solution technique ne règlera jamais une crise sociale, elle s’y coulera comme instrument et la crise continuera de se déployer, dans ses contradictions motrices, sans moins, sans plus. Les médias élitaires n’ont donc pas perdu tant que ça leur aptitude à tout simplement faire taire. Ceci est la confirmation du fait que la qualité intrinsèque, l’adéquation factuelle ou la cohérence intellectuelle, ne sont pas du tout des obligations très nettes quand ton journal est le bras de la classe dominante.
Facebook (et tous ses équivalents tendanciels). L’immense espace où le discours citoyen se vautre dans les mondanités et l’opinion avec bien entendu les accrochages d’usage n’est pas déplorable à cause de l’empoigne qui y règne mais bien à cause de sa dimension de vaste soupe de plus en plus gargantuesque et inorganisée. Qui relit du stock émanant de ces dispositifs? Qui prend la mesure de la censure mécanique par mots-clés qui y sévit de plus en plus nettement. Et, malgré cette dernière, c’est fou l’information qui nous attend, en percolant, dans un corpus de type Facebook (ou équivalents). In magma veritas, si vous me passez le latin culinaire! Sauf que, allez la pêcher… Je me prends parfois à fantasmer une sorte de gros agrégateur hyper-fin (car il serait tributaire de la fulgurance de cette intelligence artificielle authentique qui est encore à être). J’entrerais, mettons «Croyance aux OVNI» ou «Arguments dénonçant la corruption politique» et mon super-agrégateur plongerait dans Facebook (et équivalents) et y pêcherait ces développements et les organiserait, les convoquerait, les corderait, par pays, par époques, par tendances politiques ou philosophiques. Le corpus informatif magnifique que ça donnerait. On s’en fiche un peu pas mal que ces gens se chamaillent entre eux. Ils parlent, ils s’informent, ils amènent des nouvelles, comme autrefois sur les places des villages et dans les grands chemins. Molière a appris la mort de Descartes d’un vagabond venant de Paris monté temporairement sur l’arrière d’un des charriots de son théâtre ambulant. Je peux parfaitement me faire enseigner les prémisses de la dissolution effective du capitalisme pas un gogo méconnu dont le texte dort en ce moment sur Facebook, MySpace ou myobscurewittyblog.com. Ne médisons pas trop des ci-devant médias sociaux. Ils sont la tapisserie du Bayeux de notre époque. Les historiens ne les jugeront absolument pas aussi sévèrement que nous le faisons.
Médias journalistiques citoyens. Entre les deux, il y a les médias citoyens. Un cadre présentatif journalistique un peu à l’ancienne, quoique «pour tous» (commentateurs et auteurs) sur lequel se déverse la tempête interactive, sabrée du cinglant blizzard de toutes les digressions, redites et empoignes. De fait, entre la redite-télex et l’édito de choc, les médias journalistiques citoyens cherchent encore leur formule, et maintes figures d’hier ont jeté la serviette, les concernant. Ces médias alternatifs, où tout est encore â faire, sont principalement cybernétiques bien évidemment. Et ils s’alimentent de deux héritages. Ce sont justement les deux héritages, complémentaires et interpénétrés, qui, bon an mal an, se rencontrent et se confrontent ici, dans mes deux citations d’ouverture: l’interactif et l’informatif. Il ne faut pas se mentir sur les médias citoyens, dont l’exaltation des débuts s’estompe. Les manifestations verbales et conversationnelles de la lutte des classes la plus aigüe y font rage. Rien n’est badin ici, rien n’est formel, rien n’est comportemental (courtois ou discourtois). Tout concerne la lutte des forces progressistes et des forces réactionnaires de notre société pour se positionner et se maintenir dans l’espace, secondaire certes, subordonné mais toujours sensible, de le communication de masse.
La lutte des classes se bridait pesamment, sous les piles de papier encré du journalisme conventionnel. Dans le journalisme citoyen, elle se débride allègrement dans les pixels. Pour le moment, cela ne rend pas la susdite lutte des classes nécessairement plus méthodique, avisée ou systématique mais subitement, ouf, quelle visibilité solaire!
.
.
.
Paru aussi dans Les 7 du Québec
.
.
.
Posted in Citation commentée, Civilisation du Nouveau Monde, Culture vernaculaire, France, Lutte des classes, Monde, Vie politique ordinaire | Tagué: censure, cyber-journalisme, cyberculture, Facebook, journalisme, journalisme citoyen, journaux, Les 7 du Québec, lutte des classes, médias, propagande, sociaux, société, technologie | 15 Comments »