Le Carnet d'Ysengrimus

Ysengrimus le loup grogne sur le monde. Il faut refaire la vie et un jour viendra…

  • Paul Laurendeau

  • Intendance

Posts Tagged ‘YouTube’

Mon WAVEYA imaginaire (essai-fiction)

Posted by Ysengrimus sur 1 mars 2018

MiU et ARi, du duo de danse WAVEYA (circa 2017)

.

Dans mon imaginaire, WAVEYA n’est pas un produit de l’implacable industrie du divertissement mondial. Ce n’est pas un ersatz de ce K-Pop coréen flamboyant, tyrannique et jovialiste qui traite ses danseurs et ses danseuses comme des esclaves sous-payés et surexploités. Dans mon imaginaire, WAVEYA, c’est différent. De par WAVEYA, je ne vais pas aujourd’hui disserter du monde réel. Je veux me concentrer sur ce que WAVEYA me fait espérer, strictement dans l’imaginaire. Des lendemains qui chantent et dansent. Un monde uni, harmonieux, heureux, qui s’amuse et se donne à la beauté et à la soif de vivre, de juste simplement vivre.

Alors reprenons la légende et assumons-la comme ce qu’elle est et deviendra pour nous: un essai-fiction, une synthèse de valeurs, un réceptacle d’espoir, un mythos. Une jouissance aussi, un hédonisme, une jubilation, une sensualité, explicite ou latente. Deux sœurs, ARi et MiU, aimaient beaucoup sauter et gigoter, dans leur enfance. Elles se sont donc mises à danser. Elles ont ouvert un canal YouTube en 2011 et se sont lancées dans le dance cover, c’est-à-dire dans la mise en place de chorégraphies refaites ou redites à partir des vidéos d’airs populaires à la mode. Vite, cependant, le travail de WAVEYA s’est particularisé pour accéder à une originalité chorégraphique spécifique. Aussi, de fait, dans mon imaginaire, WAVEYA c’est du vrai YouTube de souche, c’est-à-dire des personnes ordinaires qui montrent au monde entier combien elles sont extraordinaires.

Un temps, WAVEYA a fonctionné comme une petite troupe de danseuses qui incorporait environ une demi-douzaine d’artistes (noter les identifications nominales, qui vont se perpétuer tout au long de l’aventure). Mais, sur un peu moins d’une décennie, la petite troupe s’est vite effilochée, restant centrée sur ses deux nucleus d’origine, ARi et MiU. Ces deux artistes dansent et elles sont aussi chorégraphes. Dans mon imaginaire, elles font tout. Elles choisissent leurs costumes et leurs teintes de coiffures, filment leurs vidéos, en effectuent le montage et la production, et gèrent leur petit studio. Elles prennent même soin de chats perdus. Seuls les airs musicaux retenus préexistent à leur travail.

Dans mon imaginaire, l’expressivité de WAVEYA est si articulée que l’on en vient à dégager une personnalité scénique identifiable, pour chacune de ces deux artistes. ARi, c’est la mystérieuse, la sinueuse, la vaporeuse. Elle développe une dimension semi-fantomatique et danse de façon très ballerine, éthérée, intériorisée, sans trop théâtraliser. MiU, c’est le Clown (avec un respectueux C majuscule), rieuse, câlineuse, tirailleuse, expansive, elle joue les danses, tout en respectant scrupuleusement les chorégraphies (souvent conçues par ARi). Le duo est superbement balancé, solidement synchronisé, tout en jouant d’une belle individualité des deux figures.

WAVEYA me fait rêver à un monde meilleur. Un monde où il n’y a plus deux Corée(s), un monde où nous sommes tous ensemble, où nous échangeons nos sensibilités mixes et variables, joyeusement et respectueusement. Dans mon imaginaire, le monde de WAVEYA prend des airs populaires américains (Britney Spears, Beyoncé, Justin Bieber et autres) et les transforment en sautillettes joyeuses, originales et déjantées. On n’a pas besoin de comprendre l’anglais des chansons ou le coréen des danseuses. Dans mon monde imaginaire, tout se rejoint, dans le mouvement désarticulé des corps et dans le clinquant de la musique. Et nous rêvons de sororité en regardant deux sœurs s’agiter harmonieusement.

D’évidence, je ne suis pas le seul à rêver. Il y a des observateurs et des observatrices (surtout des observatrices) bien plus systématiques que moi, sur le coup. WAVEYA a des millions de suiveux YouTube. On écrit de partout à ARi et à MiU et ce, dans toutes les langues. Parfois, c’est comme une bouteille à la mer. Le correspondant ou la correspondante sait que WAVEYA ne comprendra pas la langue dans laquelle il ou elle lui dit que leurs chorégraphies nous font tous nous sentir bien, nous donnent tous envie de danser ou de chanter, nous font tous nous dire qu’on pourrait tous devenir une grosse gang de coréens et de coréennes dansants… un peu comme autour de PSY, lors de son mystérieux et tonitruant tube planétaire de 2012.

WAVEYA est sexualisé, sexuel, sexy, explicite, assumé. Tout y passe, le twerking, les poses coïtales, les ondoiements sensuels, les œillades de charmeuses, les leggings moulants, les tenues courtichettes. Bigots et pudibonds, s’abstenir. Pourtant ce n’est pas de la pornographie, ni même le genre de procédés racoleurs d’allumeuses tocs qu’on peut aujourd’hui observer un peu partout, même dans le mainstream de la chanson populaire. WAVEYA produit d’abord un travail chorégraphique. La transposition d’époque effectuée, je pense à Isadora Duncan ou à Margie Gillis qui, elles aussi, choquèrent la pudibonderie, en leurs temps. Je pense aussi aux danseuses de Kabuki qu’affectionnait ma mère. Les deux danseuses et chorégraphes de WAVEYA sont fraîches, vives, déliées, bien dans leurs corps musclés et magnifiques. Elles jouent les sinueuses, certes, mais il y a aussi des chorégraphies où elles sont très garçonnes de dégaine, tant dans les costumes que dans le style des mouvements adoptés. Féminité délicate et tom-boying vigoureux se rejoignent dans la palette de choix de ces deux artistes. De tous points de vue, ce sont des femmes planétaires. Aussi, dans mon imaginaire, elles annoncent une ère où les filles feront ce qu’elles voudront, bougeront comme elles l’entendront, s’habilleront comme bon leur semblera et sortiront de jour et de nuit sans se faire agresser, juger, ou bardasser.

Par touches assurées, WAVEYA construit un monde. Dans ce monde, il y a des chats, des rires, des costumes magnifiques, des cheveux polychromes, de la jeunesse vigoureuse et beaucoup de travail. Nous nous retrouvons dans un espace spécifique, le petit studio WAVEYA. Il n’y a pas deux chorégraphies qui se ressemblent et une intensité sans pareille se dégage des deux sœurs. Elles ont dansé sur scène aussi, notamment à Macao et en Indonésie, devant public. Mais je n’ai pas retrouvé la force et l’intensité de leur travail de studio. WAVEYA porte en soi toutes les particularités exceptionnelles du phénomène YouTube. C’est dans ledit tube qu’elles donnent tout ce qu’elles ont à donner. ARi et MiU nous servent aussi des vidéos plus intimistes, dans un décor un peu gamine de chambre à coucher. C’est à la fois très sensuel et très second degré. L’ambiance est dense, vaporeuse, presque tendue quand soudain… le rire communicatif de MiU fait tout voler en éclats.

Dans mon imaginaire, l’avenir de WAVEYA prendra deux formes possibles. Ou bien elles vont durer sans rester, ou bien elles vont rester sans durer. Que je m’explique. Durer sans rester, c’est comme les Beatles. Ils n’ont travaillé ensemble que dix ans mais leur immense production s’est bonifiée et s’est transformée en une icône culturelle incontournable. Rester sans durer, c’est comme les Rolling Stones. Ils chantent ensemble depuis 1962, mais on est pas vraiment capables de se garder six de leurs chansons dans la tête. L’avenir de WAVEYA sera un de ceux-là. Ou bien, sous peu, ces deux jeunes artistes passeront à autres choses et leur jolie production chorégraphique restera —fleuron d’une époque— accrochée dans la grande penderie YouTube et dans nos mémoires. Ou bien, elles vont faire cela pendant des années encore et se feront doucement engloutir dans le glissando du temps qui déboule. On observera ce qui se passera. L’avenir verra.

Quand je regarde danser WAVEYA, je pense donc à ma mère (morte en 2015). Maman n’était ni danseuse ni chanteuse mais elle avait un faible pour les jeunes filles affirmées. Comme bien des femmes, elle prenait la mesure de la beauté des autres femmes et vibrait à celle-ci, avec empathie. Je suis certain que maman aurait apprécié WAVEYA. Elle aurait dit: Elles ont du chien, les petites sauteuses coréennes là. Elles sont jeunes mais elles sont bonnes. Elles sont à la mode, en plus. Personne leur dit comment qu’y faut qu’elles bougent ou qu’elles s’habillent. Des fois, c’est un petit peu osé mais ça me choque pas pantoute. Voilà, ARi et MiU, c’est la vieille Berthe-Aline du fond de mon cœur qui vous rend ici hommage et vous raconte ce qu’elle pense de votre art populaire en devenir.

Il y a un grand nombre de danseurs et de danseuses K-Pop sur YouTube. Il y a du bon et du mauvais, du nunuche et de la virtuosité. J’en ai visionné quelques-uns mais je reviens toujours à WAVEYA. Il y a quelque chose de particulier et d’inédit, avec ce duo là. Dans mon imaginaire, ce qu’on a là, c’est une authenticité. Gemme rare… Deux gogoles qui sautillaient sur des sofas dans leur enfance au son de la musique pop de leur petit temps ont réussi, ni plus ni moins, à transformer leur artisanat, improbable, en art.

Mon WAVEYA imaginaire ne disparaîtra pas. Il est, comme toute forme d’expression, un indicateur sociologique, anodin ou radical. Ce millénaire sera le millénaire de la femme. WAVEYA en témoigne aussi, goutte d’eau dans le torrent de tout ce que ce monde qui monte nous dit aujourd’hui.

MiU et ARi

Publicités

Posted in Culture vernaculaire, essai-fiction, Monde, Multiculturalisme contemporain, Musique, Sexage | Tagué: , , , , , , , , , , , , , | 18 Comments »

De l’ordinateur comme objet mythique à l’ordinateur comme objet pratique: une chronologie sélective en deux phases

Posted by Ysengrimus sur 1 novembre 2013

Big Brother is all of us… [Big Brother, c’est nous tous…]

Nouveau dicton populaire

.
.
.

L’ordinateur fut l’un des objets les plus mal anticipés qui soit. Le voyant pourtant venir de fort loin, on a passé presque un siècle à fantasmer l’impact qu’il était voué à avoir sur nos vies et, dans cette immense futurologie raté, on n’a à peu près rien vu de ce qui venait vraiment. C’est parfaitement atterrant. J’aimerais ici vous convoquer à une petite chronologie sélective en deux phases. Elle est, certes, marquée au coin d’une trajectoire culturelle et technologique toute personnelle (surtout lors de la première phase, où je picore un peu au hasard dans le gargantuesque cloaque de la culture sci-fi du temps, en matière d’ordinateurs et de computation – c’est quand même pas tout le monde qui a lu et relu pieusement Les bulles de l’Ombre Jaune). Mais il s’agit ici indubitablement d’une sélection de faits significatifs en ce qui concerne les dimensions mythique (première phase) et pratique (seconde phase) de l’ordinateur dans notre vie collective. Matez-moi un peu ça. Le contraste entre les deux dimensions de la bécane (la mythique et la pratique) est hurlant.

Des ordinateurs, circa 1970

Des ordinateurs, circa 1970

.
.
.

PHASE 1: L’ORDINATEUR COMME OBJET MYTHIQUE

1818: le roman Frankenstein, or the modern Prometheus de Mary Shelley, présente une version scientiste du vieux mythe du Golem (un perso fabriqué de main d’homme qui devient potentiellement dangereux). L’impact de ce roman, et de ses sous-produits littéraires et cinématographiques, sur l’imaginaire de masse du siècle suivant sera tonitruant.

1928: la compagnie IBM (International Business Machines) fait breveter la fameuse carte perforée à quatre-vingt colonnes, devenue depuis l’archétype du genre. J’ai vu de mes yeux, dans ma jeunesse (circa 1978, cinquante ans plus tard donc), un gros ordi de bureau aspirer une pile de ces cartes. On savait pas exactement ce que ça foutait mais qu’est-ce que c’était impressionnant à voir aller.

1936: introduction, dans un article scientifique, de la machine de Turing. C’est une réflexion sur la proto-computation (ladite machine n’exista jamais que sur papier).

1947: des mathématiciens américains, britanniques et français réunis en congrès à Nancy (France) commencent à conceptualiser le programme de travail de la cybernétique, pour le moment une affaire de matheux pas trop claire. Apparition de la notion de bug. La légende veut qu’un insecte se serait coincé dans le dispositif d’un grand ordinateur expérimental, causant des avaries. Marginale dans la période mythique (cette dernière étant hautement réfractaire à l’idée du moindre pépin amenant l’ordinateur à «se tromper»), la notion de bug est devenue courante (voire galvaudée) avec la banalisation de l’ordi comme instrument ordinaire.

1949: le roman 1984 de George Orwell popularise l’idée d’une dictature omnisciente, centralisée, hautement scrutatrice (Big Brother is watching you) et surtout, reposant largement sur un support technologique, machinal, et parfaitement nuisible à la liberté de conscience et d’action.

1950: le recueil de nouvelles I, Robot, d’Isaac Asimov popularise l’idée du robot anthropomorphe, serviteur puissant, toujours potentiellement menaçant, et susceptible de prendre intempestivement les commandes de la vie sociale, au risque de la rendre machinale et insensible. L’idée de robotique (et les fameuses trois lois fondamentales de la robotique) remonte à ces textes de science-fiction.

1954: la compagnie IBM lance son premier grand ordinateur commercial. Ce n’est évidemment pas un objet destiné au grand public.

1955: invention du premier langage informatique par IBM, le FORTRAN.

1956: fondation officielle d’une discipline de recherche vouée à un essor durable (et à un bonheur variable): l’intelligence artificielle.

1957: apparition, dans des publications scientifiques (d’abord en allemand puis en français), du mot informatique (construit sur mot-valise à partir des mots information et automatique). Si le mot est désormais formulé, ça doit être que la chose s’en vient…

1961: mise en marché, par le conglomérat Coca-Cola, de la boisson gazeuse citronnée Sprite. «Quel rapport?» me direz vous. Tout un rapport. De fait, on fera longtemps croire au consommateur que le nom Sprite fut généré aléatoirement, une lettre après l’autre, par un ordinateur. Cette foutaise, présentant le ci-devant «cerveau électronique» comme une sorte de marmite de sorcier semi-magique, se joindra à une longue et tortueuse série de procédés rhétoriques mythifiant ouvertement le rôle calculatoire voire «intellectuel» de l’ordinateur. «Après avoir mis tous ces chiffres dans les ordinateurs du ministère des finances, ils nous ont transmis les résultats suivants…» C’est aussi à cette époque que se met à circuler l’idée voulant que l’ordinateur ne fasse jamais d’erreur, que ce soit l’humain qui le programme qui soit le seul à se tromper. Inutile de dire qu’il ne reste plus grand-chose de cette culture canulardière computationnelle depuis que l’ordi est devenu un objet de tous les jours.

1962-1963: le dessin animé The Jetsons met en vedette une famille futuriste de 2062, se déplaçant en voiture-aéronef et vivant dans une maison technologique (c’est le pendant futuriste des Flinstones). Au nombre des personnages, on retrouve Rosie, un robot bonne d’enfant qui fait la bise aux gamins, en les mettant au lit, avec sa bouche fixe laissant sur la joue la sensation d’un petit aspirateur.

1963: la compagnie Honeywell lance son premier grand ordinateur commercial. Dans ces années là, un ordinateur (computer), dans la vision qu’on en a, c’est un gros appareil mural avec des bobines tournant aléatoirement, des types en sarreau blanc ou des dames très sérieuses se tenant devant, et on est dans les bureaux souterrains secrets du Pentagone, de la NASA ou de General Electric.

1965: début de l’hégémonisme intellectuel de la Grammaire Générative Transformationnelle de Noam Chomsky. Elle imposera la chape de plomb d’une mythologie machiniste qui pèsera de tout son poids sur les sciences humaines universitaires pendant au moins trente ans. Inutile de dire que la grammaire-machine chomskyenne ne fut jamais réalisée.

1965-1968: la série télévisée à succès Lost in space raconte les pérégrinations de la famille Robinson perdue dans l’espace dans son vaisseau-soucoupe, le Jupiter II. Le robot serviteur de la famille signale les dangers en criant Danger! Danger! Mais il peut parfois aussi être déprogrammé par un traître et se retourner contre la famille. Il frappe alors le gros ordinateur de bord scintillant de ses larges pinces et tout pète dans un flot décourageant de flammèches et de boucane.

1966: l’épisode de Star Trek intitulé What are little girls made of? introduit, pour la toute première fois, la notion d’androïde (android), qui sera amplement reprise, notamment, au sein de ladite saga Star Trek, avec les personnages des androïdes Data et Lore (dans Star Trek: the next generation). Ici (en 1966) l’androïde, fabriquée de main d’homme, s’appelle Andrea et elle est pleinement opérationnelle pour la réalisation de l’intégralité des fonctions biologiques humaines (le mythe de Pygmalion s’enchevêtre dans l’affaire – je vous passe les détails. Un honorable aperçu de dix minutes est disponible ici)… On rencontre aussi l’androïde Ruk, gaillard frankensteinesque, baraqué, costaud et peu amène. Véritable ordi pleinement anthropomorphe, surhumain mais aspirant tendanciellement à l’humanité (I am not a computer! s’exclamera un de ces personnages), l’androïde apparaît comme un dangereux serviteur qui, si on en perd le contrôle, peut faire des ravages. Lors de telles crises, il faut finaudement éberluer l’androïde en le tirant vers ses tendances humaines et/ou en lui instillant des émotions non machinales sur fond inquiétant de paradoxes insolubles.

1967: le compositeur de musique électroacoustique Pierre Henry crée la bande musicale du ballet Messe pour le temps présent du chorégraphe Maurice Béjart. L’étrange pétarade électronique de Psyché Rock et de Jéricho Jerk change radicalement notre perception du son musical qui jouera désormais dans le petit radio de la cuisine. Un an plus tard (1968), l’album Switched-On Bach de Walter/Wendy Carlos nous donne à entendre, pour la toute première fois, du Jean-Sébastien Bach joué sur cette nouvelle invention d’un certain Robert Arthur Moog, le clavier synthétiseur. Deux ans plus tard (1969), l’album Moog plays the Beatles de Marty Gold fera avancer cette sonorité nouvelle d’un cran plus profond au sein des âmes mélomanes. Dans les deux décennies qui suivront, des instruments de musique programmables de plus en plus sophistiqués vont faire leur apparition. Le piano électrique, le mellotron et le ci-devant synthétiseur de Moog (pour s’en tenir ici aux plus vénérables – les tous premiers n’étaient pas spécialement computarisés. On avait, ici encore une fois, largement affaire à de l’informatique fantasmée) vont imposer leurs sonorités pimpantes et machinales dans la musique populaire. Frisson angoissé. À cause de l’aptitude imitative de certains de ces claviers électroniques, il va vite se trouver des voix pour annoncer la disparition prochaine des guitares, des cuivres, des bois et du piano à cordes. Une futurologie ratée de plus. On attend encore (et je ne vais pas pleurer ce ratage là – ordi et musique font aujourd’hui très bon ménage, l’un servant l’autre magistralement, pour le plus grand bonheur de l’oreille et de la diversité artistique la plus riche imaginable).

1968: dans le célèbre long métrage 2001: A space Odyssey de Stanley Kubrick, l’ordinateur central de bord d’une mission spatiale vers Jupiter, invisible (parce qu’omniprésent), doucereux et déférent (il s’appelle Hal et a une voix feutrée inoubliable), constate froidement que les cosmonautes du navire nuisent aux opérations et, donc, il les tue calmement, un par un, comme si c’était des parasites. On le débranche à temps, mais ça passe juste. La même année, dans l’épisode de Star Trek intitulé The Ultimate computer, on propose au capitaine James T. Kirk de se faire remplacer par un ordinateur central qui contrôle son navire. Cela fout le bordel meurtrier dans la flotte de la Fédération des Planètes et il faut finir par débrancher l’ordinateur M5, que son inventeur, un peu savant-fou sur les bords, traite comme son enfant. Il va sans dire que le tout ne se fait pas sans casse car l’ordinateur en question n’a tout simplement pas de bouton interrupteur…

1970: dans le roman de la série Bob Morane intitulé Les bulles de l’ombre Jaune, Henri Verne transporte ses héros, agents de la ci-devant Patrouille du Temps, en l’an de grâce 3222. Ils arrivent alors à Niviork (New-York), inquiétante mégapole en ruine (suite à un conflit nucléaire) dont toutes les activités sont coordonnées par un gigantesque cerveau électronique central nommé Ibémé (on apprend éventuellement que ce nom dérive d’IBM). Sorte de Baal abstrait au sommet d’une pyramide à degrés, Ibémé assure l’intendance de cycles obligatoires de sacrifices humains. Il faudra donc le détruire car il est parfaitement nuisible à la vie humaine.

1974-1978: la série télévisée The six million dollar man lance et popularise le mythe de l’homme bionique, un être humain accidenté qu’on retape et améliore en le réparant avec de la technologie programmée, amplifiant ses capacités physiques (et éventuellement mentales). De la femme bionique à la civilisation Borg, en passant par RoboCop et le Terminator, ce concept de fusion entre l’humain et la machine aura une riche postérité mythique.

1975: la compagnie Commodore commence à produire ses premiers terminaux à clavier. On parle alors beaucoup, sans trop comprendre à quoi ça rime, de puces (chips). Ce gros clavier avec écran penché, dont les touches font clac, clac, clac, on se demande ce que ça fout exactement et on y découvre surtout… des jeux.

1976: la compagnie Control Data embauche du prolo en masse à Montréal. Le principal boulot offert est celui de key-punch. Il s’agissait de dactylographier des données sur des machines à cartes perforées ressemblant un peu à de vieilles calculatrices de table.

1977, 1980, 1983: la première trilogie Star Wars de George Lucas renoue avec les thèmes échevelés, irrationalistes et manichéens du space opera et ne place pas vraiment la problématique de l’ordinateur en position centrale. On y rencontre cependant deux personnages de soutien qui contribueront pour la première fois à significativement renouveler l’image mythique de l’ordi. Le robot C-3PO est un droïde de protocole anthropomorphe, parlant 6,000 formes de communication. En dehors de cela, c’est un trouillard, un geignard et un ignare, mais il est difficile de ne pas le trouver insondablement attachant, tellement humain, en un mot, pour lâcher le mot. Beaucoup plus déterminant aux fins de la thématique, le robot non-anthropomorphe R2-D2 est un droïde d’entretien ne s’exprimant que par cyber-pépiements. Il est rien de moins qu’un super-terminal portatif autonome car il peut, de sa propre initiative ou sur demande, communiquer harmonieusement avec tous les mainframes imaginables, y compris ceux de l’ennemi. Mais surtout, en observant attentivement sa remarquable trajectoire, on découvre que R2-D2 est un serviteur discret, efficace jusqu’à l’omnipotence, sagace jusqu’à l’omniscience, et doté d’une extraordinaire élévation morale. Devenu une icône culturelle en soi, le droïde R2-D2 est incontestablement la première manifestation fortement positive et laudative d’une vision respectable, sereine et éthique de l’ordi, dans le grand cinéma de masse.

1978: un confrère, étudiant de fac en informatique de gestion, nous annonce triomphalement à la cantonade que, dans dix ans, tout le monde devra connaître un ou deux langages de programmation et que ce sera certainement FORTRAN et COBOL qui domineront ce nouveau champ de savoir populaire. L’explosion ultérieure du user-friendly (sans parler de l’apparition, chez les informaticiens, du Pascal, du C, du C++ du SQL, du Java, du Dot-net et j’en passe) rendra cette prédiction parfaitement inopérante, justement dans la décennie où elle était censée se réaliser.

1979: un jeune Ysengrimus de vingt-et-un printemps pianote sur un ordi pour la première fois de sa douce vie, dans une obscure salle de terminaux de la fac où il étudie. C’est justement un terminal. Le lettrage est vert fluo, il faut taper toutes sortes de codes cryptiques pour «entrer» dans le ci-devant mainframe et on a aucune idée de ce qu’on fout là exactement quand on y arrive. Inoubliable.

1980: la compagnie Atari introduit les premiers ordinateurs avec clavier et écran ne requérant pas qu’on pianote une litanie de commandes en code avant de se déclencher. Ils bootent (comme on disait alors) automatiquement sur allumage (tout un soulagement au demeurant) et servent surtout pour des jeux vidéo et la constitution de bases de données rudimentaires.

1981: apparition du robot industriel, servant notamment à l’assemblage des voitures. Cet appareil perfectionné de chaîne de montage portera un coup durable au fantasme asimovien du robot anthropomorphe. Désormais, un robot, c’est un type perfectionné de machine-outil utilisé dans l’industrie et non un compagnon domestique avec des yeux et une bouche pour parler. Et un androïde, bien ça n’existe tout simplement pas.

1982: le film de science-fiction Blade Runner de Ridley Scott incorpore des androïdes intégralement anthropomorphes en pagaille mais surtout, il met en scène une technologie de recherche d’informations préfigurant assez astucieusement l’Internet.

la machine de l’année pour 1983: le PC... L'ordi emménage...

La machine de l’année pour 1983: le PC… L’ordi emménage…

.
.
.

PHASE 2: L’ORDINATEUR COMME OBJET PRATIQUE

1982: Mise en place graduelle du Minitel en France.

1983: popularisation du micro-ordinateur ou ordinateur personnel (PC pour personal computer). On apprend tous à jouer au grille-pain avec les disquettes et à enchâsser le rouleau de papier symétriquement déchiquetable dans l’engrenage des imprimantes-mitraillettes. Démarre alors la compétition entre MacIntosh (Apple) et ce qu’on appelle alors les clones d’IBM (derrière lesquels se profilera Microsoft). Le film WarGames de John Badham est le premier long métrage à succès mettant en vedette un hacker (il passe à deux doigt de déclencher un conflit nucléaire en prenant le simulateur guerrier logé dans le grand ordinateur Pantagoneux qu’il parasite pour un jeu vidéo).

1983-1989: les années traitement de texte. On pourrait aussi dire: les années WordPerfect. La souris et les icônes, nées chez Apple puis reprises intempestivement par Microsoft, s’imposent durablement comme complément du clavier. On apprend tous à cliquer

1984: apparition télévisuelle de Max Headroom, donné comme le premier personnage artificiellement généré (en fait un acteur lourdement maquillé – les effets d’ordi étaient encore très marginaux). La création de personnages et de mondes engendrés artificiellement connaitra, en vingt ans, une véritable explosion, notamment dans l’univers cyclopéen du jeu vidéo. Certaines de ces figures (on pense par exemple à Lara Croft ou aux Sims – l’énumération serait trop longue ici) deviendront de véritables icônes culturelles. Apparaîtra avec eux une notion (qui a été largement galvaudée et barouettée): le virtuel.

1986: dans le film Jumpin’ Jack Flash de Penny Marshall, la protagoniste voit, avec ébahissement, des messages s’écrire sur son terminal d’ordinateur sans que ses mains ne touchent le clavier. Un espion en détresse l’appelle à l’aide, à travers les arcanes du système. Ce film est un des premiers à incorporer l’envoi de quelque chose comme des courriers électroniques comme élément central de son intrigue.

1990: apparition de la procédure de retouches photographiques Photoshop. En deux décennies, il deviendra possible d’effectuer artisanalement le type de montages photos que seuls la CIA et le KGB pouvaient se permettre dans les décennies antérieures. Mais assez vite aussi, les retouches photos, privées et publiques, vont se généraliser au point de susciter un net désenchantement du public. Bientôt, le trucage d’images par ordinateur sera partout et, conséquemment, ne leurrera plus personne. La retouche photo deviendra donc graduellement un procédé jugé fort négativement et certaines personnalités la subissant iront jusqu’à intenter des poursuites légales pour altération de leur image publique.

1991-1997: décollage en force d’Internet dans les différents pays. C’est le temps des arcanes encore mystérieuses du  www, du http, du dot-org et du dot-com. On se familiarise tous avec les hyperliens, qui font passer, en un éclair, d’un site à l’autre. Apparaissent aussi certaines envolées d’enthousiasme oratoire qui font sourire aujourd’hui comme cyber-espace ou autoroutes de l’information. Un certain pessimisme s’exprime aussi. On trouve l’Internet encore bien vide de contenu et surfer le net est alors perçu comme une fixation un peu schizo vous isolant de la vie sociale.

1993-1999: âge d’or du courrier électronique, des «listes» électroniques (sur lesquelles on a tous, un jour ou l’autre, posté un message privé par erreur) et… des pourriels (spam) qu’il faut effacer un par un, soi-même. Les premières binettes (emoticon) font leur apparition pour facialiser l’interaction et réduire la sécheresse des messages. C’est aussi le boom des légendes urbaines colportées par courriels pyramidaux et des petites amusettes iconiques fixes ou mobiles qu’on s’envoie entre amis. Un curieux constat se généralise. Les gens se conspuent souvent par courriel, même sur des listes collectives. C’est comme si le maintien de la fulgurance de l’échange combiné à la disparition des contraintes du face à face libéraient les pulsions rageuses. Il va falloir apprendre à dominer ce nouveau canal d’échange et… à se dominer en lui. Des formes laborieuses d’autocensure collective se mettent en place, à cette fin, comme notamment le fameux Point Godwin, un aphorisme de culture vernaculaire se formulant, un peu pompeusement, comme suit: Toute cyber-discussion dont le ton monte voit la probabilité qu’un des participants y fasse référence à Hitler ou au nazisme tendre vers 1. (Quand un participant finit par oser mentionner Hitler ou le nazisme, pour quelque raison que ce soit, et même sans agressivité, on l’enguirlande en lui mentionnant, d’un air hautain, qu’il vient d’atteindre le Point Goodwin). Certaines listes d’échanges électroniques deviennent éventuellement tellement fliquées par leurs modérateurs qu’elles en meurent tout simplement d’inanition.

1994: le très étrange feuilleton ReBoot, créé à Vancouver (Canada) par Gavin Blair et toute une équipe, est la première série télévisée constituée exclusivement d’animations par ordinateur (chaque épisode dure une demi-heure, la série durera jusqu’en 2001). La même année, le film The Mask de Chuck Russell incorpore étroitement jeu d’acteur et effets visuels conçus par ordinateur. Un an plus tard (1995) le premier long-métrage du triptyque Toy Story de la compagnie de cyber-animation Pixar fera un tabac en salles. Des voix annoncent alors la disparition de l’acteur et de l’actrice au profit de l‘animatron informatique. Inutile de dire qu’on attend toujours, quelques vingt ans plus tard, la concrétisation de cette nouvelle prédiction hasardeuse.

1995: lancement du MP3 qui, en cinq ans, va révolutionner la façon de saisir la musique sur un support, de la consommer et de la pirater. Une durable bataille de copyright s’ensuit qui perdure encore. Apparition graduelle du webcam (enfin une anticipation Star Trek va finir par factuellement se réaliser: la vidéophonie). Lancement du site de vente aux enchères eBay. Il deviendra rapidement un incontournable mondial de la cyber-brocante et il rebondira régulièrement dans l’actualité pour la rareté ou l’incongruité des objets qu’on y trouve. Certains cinéastes ont même déclaré avoir acheté le gros des décors de leurs films d’époque sur eBay.

1995 puis 1998: lancement par Microsoft de la série des systèmes d’exploitation Windows.

1995-2000: intensification de la peur du bug de l’an 2000. Âge d’or des site web non-interactifs (les couleurs vives, les micro-animations papillonnantes) et guerre des premiers fureteurs (Netscape, Explorer, etc). On apprend tous à bookmarquer. Pour se partir un site web alors, il fallait savoir programmer en HTML et explicitement obtenir la permission de se nicher (d’être hébergé) sur un serveur spécifique. Pas facile.

1998: lancement du moteur de recherche Google. En moins de dix ans il surclassera ses six ou sept concurrents (Lycos, Yahoo, Copernic, etc). On apprend tous à googler. La curieuse petite comédie sentimentale You’ve got mail de Nora Ephron raconte l’histoire de deux cyber-tourtereaux qui se connaissent (en personne) et se font, en fait, grise mine dans la vie réelle tout en tombant amoureux en ligne. Première incorporation du cyber-anonymat (et de sa dualité) dans l’intrigue d’un film.

2000: le fameux bug de l’an 2000 est vite éventé. Débuts de la technologie et de la philosophie de l’open source. Le jeune hacker Mafiaboy lance sa série d’attaques informatiques et se fait pincer après avoir causé son lot de dégâts. Le virus ILOVEYOU infecte des dizaines de millions d’ordis à travers le monde. On découvre que ces petites amusettes visuelles qu’on peut se faire envoyer par courriel et qui nous déridaient tant dans la décennie précédente peuvent être malicieuses. On apprend, la mort dans l’âme, à effacer ces attachements sans les ouvrir.

2001: lancement de Wikipédia. Il est maintenant possible à tous d’intervenir directement sur Internet. En une décennie, cependant, Wikipédia renoncera graduellement à son ouverture intégrale.

2001-2003: la généralisation de la technologie du wiki (la mise en ligne instantanée) voit la fin de la technicité ésotérique de la mise en ligne et le début des sites interactifs. Il devient de plus en plus facile de se partir un site web gratuitement. L’impact de masse de ce fait sera vite palpable.

2002: lancement du fureteur Firefox. Disparition de Netscape. La guerre des fureteurs se calme.

2003: lancement de la plateforme WordPress, de MySpace (qui sera éventuellement surclassé par Facebook), de Skype et du site de réseautage professionnel LinkedIn. Apparition semi-spontanée de 4chan et de /b/, le ci-devant «trou du cul de l’Internet», viviers de toute une culture vernaculaire cryptique, extrême, initiatique et cynique qui sera une source majeure de cyber-harcèlements anonymes, de hackings illicites et l’un des grands ateliers d’engendrement du phénomène du mème.

2004: lancement de Facebook, dont on peut dire, sans exagérer, qu’il est le principal support technologique d’une véritable révolution ethnoculturelle mondiale. L’Internet désormais est le vecteur d’un intensif réseautage social. Il ne s’agit plus de s’isoler du monde mais de profondément s’y raccorder.

2005: lancement de YouTube. En cinq ou six ans, il deviendra le vecteur incontournable de la célébrité sans intermédiaire et de la hantise du «devenir viral».

2006: lancement de Twitter, qui passera vite d’une structure de micro-suivage à une sorte de fil de presse instantanéiste mondial. Lancement de Wikileak que les tartuffes médiatiques dénoncent bruyamment mais consultent (et citent) intensivement.

2007: apparition du iPhone d’Apple. L’année suivante (2008), il est possible de l’utiliser en wifi, (technologie sans fil) sans obligation de raccord à un ordinateur. Le téléphone, ce vieil instrument désormais intégralement renouvelé, devient alors une partie profonde de l’identité d’une personne. Mais, désormais, il vous relie à votre réseau social (incluant votre employeur) et ce, en permanence. Cela représente déjà comme une sorte de poids, pour certains…

2008: débuts discrets du Carnet d’Ysengrimus. La typologie des blogues qu’il propose en 2009 tient toujours, malgré la graduelle mise en jachère de nombreux cyber-carnets.

2009: on recommence doucement à parler de robots anthropomorphes et à en montrer dans des foires technologiques. Le film Moon de Duncan Jones incorpore à son scénario l’interaction d’un humain, seul sur une base lunaire, avec un robot semi-anthropomorphe du nom de Girty. Ouvertement et très ostensiblement réminiscent du Hal de 2001: A Space odyssey et initialement sourdement inquiétant de par cette réminiscence, Girty (auquel l’acteur Kevin Spacey prête sa voix) s’avère un serviteur prompt, affable, stylé, attentionné, respectueux, sans malice, et cocassement expressif. Fermant, quarante ans plus tard, le cycle inquiet ouvert par Hal, le robot Girty incarne magistralement le passage de l’ordi Golem fantasmé à l’ordi instrument quotidien, banalisé, ordinaire et ami. Apparition du Bitcoin (monnaie virtuelle) qui, en quelque années, quittera le monde du jeu vidéo, se verra accepté par maint cyber-commerçants, et soulèvera tangiblement la question juridico-financière des transactions et des mises en circulation de fonds libellés en monnaie virtuelle.

2005-2010: âge d’or des blogues. On pourrait aussi dire: les années troll. Graduellement Twitter et Facebook vont assumer des fonctions qu’assumaient initialement les blogues personnels. Mise en place imperceptible du slow-blogging. Contestation croissante du cyber-anonymat par les cyber-médias officiels. On apprend tous à éviter au mieux de nourrir la cyber-provoque (Don’t feed the Troll!). Certains cyber-intervenants s’identifient très étroitement à la seconde identité que leur confère leur pseudonyme.

2010-2013: Il est devenu naturel de jauger le profil social ou sociologique d’une personne par sa présence ou son absence en la constellation des cyber-dispositifs (premières pages Google, Facebook, LinkedIn, 4chan, blogues personnels, etc). La notion de réseaux sociaux et de médias sociaux est désormais une idée ordinaire. Et l’ordi est désormais, tout naturellement, un outil de documentation, un aide mémoire et un instrument de raccord social.

world_internet_keyboard

Il est assez patent qu’on est passé de l’ordinateur Golem à l’ordi connecteur social. Quel que soit le jugement qu’on porte sur la portée intellectuelle et ethnoculturelle des faits que je retiens ici comme exemplaires (et make no mistake: beaux ou laids, grandioses ou riquiqui, ils sont exemplaires), il s’avère que l’anticipation formulée dans la première phase rate totalement son coup pour ce qui est de prévoir les immenses phénomènes sociologiques de la seconde phase… Qui ira encore, après un ratage aussi tonitruant, appeler un roman de science-fiction un roman d’anticipation? Anticipation mon fion. La seule à avoir vraiment anticipé, c’est Mary Shelley (1797-1851), et c’est sur ce sur quoi on allait collectivement fantasmer qu’elle a anticipé, rien de plus. Les œuvres du vingtième siècle ayant déliré les androïdes, les robots et les ordinateurs n’ont finalement pas anticipé grand-chose de factuel (et la notion d’uchronie est bien plus adéquate pour les décrire – cela ne s’est pas passé et ne se passera jamais). Ces oeuvres ont simplement exprimé des hantises qui étaient bien plus celles de leur temps que celles du futur. La grande peur post-orwellienne de l’ordinateur déshumanisant rappelle bien plus la réification industrielle et/ou usinière (pour ne pas mentionner la rigidité politique –rigidité des blocs- issue de la guerre froide) du siècle passé. On voit co-exister un peu éclectiquement, dans la première phase, spéculation universitaire (largement exploratoire, décrochée et, disons la choses comme elle est, en grande partie stérile aussi) de l’informatique et du cybernétique et fiction populaire de l’inhumain ordinateur totalitaire et du méchant robot fauteur de troubles. On hypertrophie aussi les pouvoirs de l’ordinateur. On en fait un «cerveau électronique». On lui impute, dans cette phase mythique, et ce, au plan du bobard le plus ouvertement foutaisier, des aptitudes fantastiques, merveilleuses, formidables. On sait, dans la phase pratique, qu’il ne détiendra pas de telles facultés avant fort longtemps, si jamais. Parallèlement, presque en autarcie industrielle (car, dans ce temps là, l’ordinateur domestique, on y croyait pas trop), apparaissent les cartes perforées, les grands ordinateurs, les premiers microprocesseurs à clavier, les terminaux aux lettrages fluo. Ils vrillent leur chemin vers la vie ordinaire sans que le public sache encore exactement à quoi ils servent exactement. Il semble bien que personne ne pouvait vraiment le prévoir, en fait. La révolution des mœurs qu’ils enclencheront sera, de fait, une surprise totale.

En gros donc, aux vues de la phase mythique, l’ordinateur déshumanise et il faut le débrancher pour sauver l’humanité. Ce qui se réalisa est le contraire, presque le contraire diamétral. J’ai pas besoin de vous faire (ou de vous imprimer) un dessin. Au jour d’aujourd’hui, l’ordi nous raccorde et est un des instruments incontournables de la culture collective mondiale. Il est aussi devenu cet implacable curseur social au moyen duquel on se juge lapidairement les uns les autres (votre-employeur-brother ne s’y est pas trompé), on se passe les antennes sur le dos, on se rencontre, on se découvre, on se masque et se démasque, on collabore, on fomente de grands projets collectifs, au mépris des distances et des limitations venues justement de ces pouvoirs centralisés qu’on imputa, à grand tort, à l’ordinateur mythique de jadis (lesdits pouvoirs, politiques et économiques, toujours menaçant mais incroyablement archaïque, dépassés, réacs, sont désormais, aussi, tendanciellement passablement anti-ordi). Tout comme le M5 aveugle de Star Trek, le grand ordinateur collectif d’aujourd’hui n’a pas de bouton interrupteur et ce, malgré Joe Lieberman et bien d’autres qui souhaiteraient pouvoir l’éteindre à leur guise. C’est pas possible encore, mais pour combien de temps… mais n’anticipons pas! Conclusion, conclusion: bon, continuons de préparer l’avenir et gardons un œil prudent et autocritique sur toutes nos futurologies. Elles parlent de nous, ici, en fait, et pas toujours dans les meilleurs termes. Et, comme c’est pas fini, l’ordi, eh ben, il y en a encore pas mal à dire…

.
.
.

Paru aussi (en deux parties) dans Les 7 du Québec:    PARTIE 1.    PARTIE 2.

.
.
.

Posted in Civilisation du Nouveau Monde, Culture vernaculaire, Monde, Philosophie, Vie politique ordinaire | Tagué: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 21 Comments »

Microcélébrité?… ou célébrité sans intermédiaire

Posted by Ysengrimus sur 29 avril 2008

Celebrite sans intermediaire

Autrefois, cette dame un peu forte à la voix au petit velour se serait fait mettre dans le son (i.e. ici, ils lui auraient dit: vas-te coucher, tu es trop forte)

Une dame un peu forte se met subitement à chanter son petit karaoké sur YouTube. Sentiment étrange quand on l’écoute. Il y a un fond de velour là dedans. Cela vibre. on le sent vachement et… des dizaines de milliers d’autres internautes confirment notre impression diffuse mais imparable. Les journaleux, ces préchiprécheurs sur le déclin, nous crient alors: c’est une autre microcélébrité. Or, ce terme de “microcélébrité” est boiteux, téteux, condescendant, en un mot: médiatique. Il donne une impression de petitesse (comme dans “petit” peuple) qui déforme passablement les choses. Si ton cabotinage sur YouTube est cliqué par des miiliers, des millions de gogos, il n’y a rien de “micro” là-dedans. Je parlerais plutôt de CÉLÉBRITÉ SANS INTERMÉDIAIRE. Autrefois, cette dame un peu forte à la voix au petit velour se serait fait mettre dans le son (i.e. ici, ils lui auraient dit: vas-te coucher, tu chantes trop mal, tu es trop forte, cela ne pognera juste pas) par un studio, un agent, toute une vermine d’entremetteurs et de déformeurs qui sont aujourd’hui voués à lentement se reconvertir ou disparaître parce qu’ils sont remplacés par une technologie de masse simple d’accès. Mais il ne faut pas s’y tromper. Le public fait bel et bien toujours sa sélection. Il y a donc bel et bien toujours des gagnants et des perdants, mais les metteux dans le son et autres filtres élitaires ne sont plus là pour dicter la norme des goûts populaires. Je suis plutôt très pour. Aux gens de faire leur choix directement et de juger par eux mêmes ce qu’ils retiendront comme marquant leur temps. Et, j’insiste là dessus, une fois ces intermédiaires expurgés, eh bien… le problème intellectuel ou artistique reste entier. Il y a des millions de farfeluteries qui se déploient sur YouTube et ailleurs. Certaines ne drainent que huit commentaires et d’autres en drainent huit millions (parfois sans même l’avoir voulu, comme quand Auguste mit le pied dans le seau d’eau d’un cheval de cirque et inventa involontairement le clown triste). Tout le monde a maintenant se chance et pourtant une sélection se fait encore. YouTube ou pas, il n’est toujours pas si évident de marquer son époque… La solution technique n’a pas du tout fourni la clef du mystère social en cause ici…

Le tout ici postule naturellement que YouTube ne se mette pas à censurer insidieusement ce genre de tendance vernaculaire… On sait déjà qu’ils protègent le copyright à fond le carton, ils pourraient tout autant -reniant alors ouvertement jusqu’à leur nom- se mettre à protéger l’intégralité de la Jet Set culturelle ancienne… moyennant rémunération discrète et sans trompette des instances menacées. Il faudra voir…

.
.
.

Posted in Culture vernaculaire, Monde, Vie politique ordinaire | Tagué: , , , , | 9 Comments »