La génération « post-micro »

Le 21 février 2010

Au cours d’une discussion récente entre enseignants en arts concernés par les nouveaux médias, un constat inattendu s’est dégagé : il semble qu’une nouvelle vague d’étudiants arrive en écoles d’art, des étudiants « post-micro-informatique », relativement malhabiles face aux logiciels bureautiques ou de création, auxquels ils ont pourtant eu accès au collège ...

Cet article, publié il y a deux mois, est l’oeuvre de Jean-Noël Lafargue. Artiste, maître de conférences associé à l’Université Paris 8 et professeur à l’École Supérieure d’Arts du Havre, il revient sur les difficultés qu’éprouvent la “génération post-micro” à maîtriser l’outil informatique.

En 1996, j’ai été chargé de tenir la main des visiteurs de la biennale Artifices, à Saint-Denis. Il est souvent périlleux de se passer de médiation lors des expositions d’arts numériques, mais à l’époque, les interfaces les plus banales — celles de l’informatique bureautique — réclamaient autant d’assistance que des installations expérimentales reposant sur la présence de capteurs, par exemple.

Les cours de multimédia du département arts plastiques de l'Université Paris 8 en 2001.

Les cours de multimédia du département arts plastiques de l’Université Paris 8 en 2001. Les étudiants n’étaient pas encore nombreux à être équipés de matériel informatique chez eux.

Cette édition d’Artifices mettait d’ailleurs tout particulièrement l’accent sur les codes de la micro-informatique la plus « normale » : claviers, souris, écrans, les ordinateurs n’étaient pas cachés.

On y présentait notamment des cd-roms et des sites d’artistes, à une époque où pour la plupart des gens, Internet n’existait pas et où la plupart des gens n’étaient pas persuadés d’avoir besoin d’un ordinateur chez eux un jour. Le président Chirac ignorait encore ce qu’était une souris d’ordinateur et il était loin d’être seul dans son cas.

Je me souviens notamment d’un visiteur de l’exposition qui cherchait désespérément à obtenir quelque chose à l’écran en soulevant de la table la souris qu’il tenait dans la main. Par un retournement de situation assez savoureux, je note au passage que les idées bizarres des analphabètes de l’informatique de l’époque deviennent à présent assez sensées : aujourd’hui il existe des souris qui se soulèvent, ou des machines qui interprètent les gestes de leurs opérateurs sans avoir besoin de passer par l’intermédiaire de la souris et du clavier, dispositifs qui seront sans  doute bientôt considérés comme terriblement archaïque.

C’est à la même époque qu’on a commencé à me confier des charges de cours, dans une salle où quatre macintosh plutôt moins puissants que le moindre lecteur mp3 actuel se battaient en duel. Les étudiants étaient curieux, voire avides de manipuler les ordinateurs, mais ils n’avaient généralement aucune connaissance de l’outil informatique. Cet état d’ignorance les rendait paradoxalement téméraires et inventifs dans leurs propositions. Ils ne se demandaient pas quel outil il fallait employer, comment, ce qu’il y avait à apprendre et quel temps cela prendrait, car pour eux, à peu près tout relevait de la magie, alors pourquoi limiter son imagination ?

Il n’y avait pas de magie pour moi puisque j’appartenais à la catégorie qui avait vu naître la micro-informatique : je devais avoir dix ans lorsque j’ai touché un Apple II pour la première fois, douze ans lorsque j’ai eu mon Sinclair ZX81, et quinze ans lorsque j’ai eu un Atari 520ST. Ce que je découvrais en revanche, c’était l’idée qu’il pouvait exister une création artistique véritable sur support informatique (mais tout cela est une autre histoire).

Un cours de programmation en langage Basic dans un numéro du journal Science & Vie daté de 1983. Même pour jouer, il fallait programmer (ou du moins recopier des programmes trouvés dans des livres spécialisés ou des magazines). Le code reproduit ci-dessus, baptisé “feu d’artifices”, servait à afficher de jolies couleurs à des emplacements pseudo-aléatoires. Vingt-cinq ans plus tard je n’ai pas énormément progressé finalement, c’est exactement le genre de choses que je fais faire à mes étudiants.

Année après année, j’ai vu les choses changer du tout au tout. Alors que pas un étudiant n’était équipé d’un ordinateur à son domicile, il est devenu rarissime qu’un seul ne le soit plus et les salles de cours n’ont à présent presque plus besoin d’être équipées de matériel informatique tant il y a d’étudiants qui viennent en cours avec leurs propres ordinateurs portables.

En 1996, disposer d’une connexion à Internet chez soi était inimaginable pour la plupart (et une ruine financière pour ceux qui essuyaient les plâtres). Quatre ou cinq ans plus tard, c’était devenu un fait assez banal et à présent, il n’y a plus grand monde qui n’ait pas accès à Internet d’une manière ou d’une autre. La téléphonie mobile, toujours sur la même période, est passée de ses balbutiements à sa généralisation — enfin presque car à vrai dire, tant que ça ne sera pas légalement obligatoire d’être équipé d’un mobile, les opérateurs devront se passer de ma clientèle.

Extrait du journal Univers >Interactif / mai 1995. Les enfants nés il y a quinze ou vingt ans constituent-ils une génération plus “numérique” que leurs aînés ?

Au cours d’une discussion récente entre enseignants en arts concernés par les nouveaux médias, un constat inattendu s’est dégagé : il semble qu’une nouvelle vague d’étudiants arrive en écoles d’art, des étudiants « post-micro-informatique », relativement malhabiles face aux logiciels bureautiques ou de création, auxquels ils ont pourtant eu accès au collège. Cette observation récente et empirique semble confortée par les travaux de chercheurs de la Fondation Travail et Technologie de Namur, auteurs d’une étude (1)évoquée par une interview pour le journal Le Monde (2), étude qui tend à établir qu’une partie des adolescents et des jeunes adultes manquent d’aisance avec les outils informatiques dont ils disposent pourtant et dont ils sont quotidiennement consommateurs.

J’utilise le mot « consommateurs » car ce qui est nouveau, c’est qu’ils ont une approche passive ou en tout cas non-créative, l’ordinateur devient un instrument de pure récréation. Comme le raconte Gérard Valenduc, le chercheur interviewé : « chatter et mettre en page un document ne font pas appel aux même compétences, par exemple. Au cours de l’étude, des animateurs de maisons de l’emploi nous ont expliqué que certains jeunes prenaient peur face à un formulaire électronique d’inscription, alors qu’ils passent peut-être dix heures par jour sur le Web à écouter de la musique ou à discuter avec leurs amis ».

Le cliché qui veut que les jeunes d’aujourd’hui, qui sont effectivement nés avec l’ordinateur et nés avec Internet, soient des surdoués dans son utilisation est donc erroné : leur compétence est limitée à l’utilisation qu’ils ont de ces outils et à des ordres de priorité qui peuvent sembler déroutant : très habiles pour communiquer par SMS, ils ne sont pas nécessairement à l’aise pour envoyer un e-mail, pour comprendre la provenance ou la fiabilité des informations auxquelles ils accèdent et pour estimer la portée que peuvent avoir les informations qu’ils diffusent eux-mêmes.

Un cliché répandu prétend que les enfants sont et seront de plus en plus précocement doués pour manipuler l’outil informatique. Ici, le jeune John Connor pirate sans peine un distributeur bancaire à l’aide de son ordinateur Atari Portfolio dans Terminator 2 (1991)

Une telle évolution n’est sans doute pas inattendue et suit un scénario logique puisque pour l’industrie, il est vital de confisquer aux utilisateurs/clients les moyens de production (ou la simple compréhension du fonctionnement de ces moyens de production) qui lui permettraient de se passer d’elle. Le processus, poussé à bout, va parfois jusqu’à la mise en place de réglementations corporatistes qui interdisent à un simple particulier d’être autonome vis à vis d’une technologie.

En échange de toujours plus de services et de toujours plus de facilité dans l’usage de ces services, « l’utilisateur final » se transforme en client captif, dépendant et, au fond, handicapé — ce qui n’entre curieusement pas en contradiction avec la tendance actuelle qui consiste à forcer l’utilisateur à réaliser lui-même certaines tâches précédemment prises en charge par les organisateurs du service (3), bien au contraire : lorsque les utilisateurs de blogger ou autre plate-forme commerciale de publication confient leurs données, à des sociétés comme Google plutôt que d’employer des outils libres ou d’apprendre à créer leurs propres pages html, ils participent doublement à leur propre aliénation puisqu’ils perdent la capacité à se passer du service en question tout en lui laissent leurs données en otage.

La micro-informatique des origines forçait chaque utilisateur à être un peu programmeur. La grande époque du « PC assemblé » (le début des années 1990 ?) forçait ces mêmes utilisateurs à être un peu informaticiens, à savoir changer un disque dur, etc. Les débuts de l’Internet grand public imposaient de la même manière l’acquisition de certaines compétences. Il est dans l’ordre des choses que ce ne soit plus le cas, mais cette modification du rapport à l’ordinateur n’en est pas moins préoccupante à une heure où les systèmes informatiques sont plus présents que jamais, sous des formes extrêmement diverses, et où il devient difficile ou illusoire de s’imaginer vivre en évitant leur contact.

Je me rappelle pour ma part de la fameuse réflexion de Marshall McLuhan : « nous forgeons les outils, puis ce sont nos outils qui nous forgent » (4), réflexion que j’entends aussi comme un avertissement : « si tu ne te soucies pas de tes outils, ce sont eux qui se soucieront de toi ». Les outils cessent d’être des vecteurs d’émancipation lorsqu’on n’en a aucune maîtrise.

La mode du “do-it-yourself” : créer soi-même une antenne pour la télévision numérique (gauche) ou un climatiseur (droite). Photos issues de Gizmodo most popular DIY projects for 2009. Ce qui motive cette mode du “making”, ce ne sont pas tant les économies financières réalisées que le plaisir de conserver une prise sur les technologies qui nous entourent.

Le remède semble tout trouvé : les pratiques amateur du hacking (détournement) et du do-it-yourself (faites-le vous-même) ont un véritable succès et sont alimentées par l’activisme des passionnés qui inondent le réseau d’outils de création libres, de tutoriels et de sources d’information diverses et variées. Mais est-ce que le rapport entre utilisateurs-créateurs et utilisateurs purement consommateurs voit le premier groupe croître plus rapidement que le second ? Rien n’est moins sûr.


  1. Les jeunes off-line et la fracture numérique, septembre 2009, par Périne Brotcorne, Luc Mertens et Gérard Valenduc. Comme son nom l’indique, l’étude était au départ destinée à traiter des jeunes qui n’ont jamais eu d’ordinateur ou de connexion à Internet mais une telle jeunesse n’existe que dans des proportions infinitésimales et le sujet se décale rapidement vers les jeunes mal armés pour utiliser l’outil informatique.
  2. L’autre fracture numérique, celle des 16-25 ans, Damien Leloup, Le Monde, 18 décembre 2009.
  3. exemple, les guichets dits « automatisés » — où le guichetier est remplacé par l’utilisateur. Li re à ce sujet Le travail du consommateur : De McDo à eBay : comment nous coproduisons ce que nous achetons par Marie-Anne Dujarier
  4. « We shape our tools and thereafter our tools shape us », Marshall McLuhan,Understanding media, 1964

» Article initialement publié sur le dernier des blogs

» Avertissement > Cet article n’est pas publié sous licence Creative-Commons

» Photo de Une par zakwitnij sur Flickr

Laisser un commentaire

Derniers articles publiés