Points marquants informatique 2011

Quels seront les points marquants de l’informatique pour 2011 ?

D’abord l’informatique n’est qu’un outil, et l’ordinateur n’est en fait que la forge de cet outil. Les informaticiens sont tous des forgerons, certains s’occupant plus du feu lui même, d’autres s’occupant plus du choix du métal, de la conception de la pièce et d’autres du façonnage d’art. Je peux donc répondre à cette question mais selon plusieurs points de vue de forgerons.

En fait, pour commencer, pour bien comprendre de quoi je vais vous parler, c’est que l’informatique c’est bien l’organisation de l’information, on va dire : d’une manière numérique. Ca regroupe les processus d’automatisation de cette information (pour moi plutôt du coté logiciel). Ce qui reste le plus important est tout de même : l’information elle-même. Le coeur du système est la base de données. L’utilisateur, à savoir le client de l’informatique, n’a en définitive qu’une seule et unique préoccupation (dont il ne voudrait d’ailleurs pas se préoccuper) c’est d’être assuré que ses informations soient bien gérées. La gestion de cette information c’est d’abord son stockage (et dans son intégrité : sa sauvegarde, sa sécurité et sa confidentialité) et ensuite sa modification (et donc le transport de ses modifications). En architecture informatique, il y a les données elles-même mais aussi la vie de ces données : c’est ça qui importe pour le client de l’informatique, c’est lui le consommateur de l’information numérique, et l’avenir de l’informatique devra forcement passer par son besoin. A nous d’en tenir compte, et aussi de l’orienter.

Par quel domaine voulez-vous commencer pour nous parler de cet avenir de l’informatique en 2011 ?

D’un coté il y a la partie la plus visible : le progrès des modes de manipulation de l’information. Il n’y a qu’à voir comment le marché des tablettes tactiles a émergé en 2010 pour comprendre comment l’individu non seulement s’est créé le besoin de se rapprocher corporellement de l’information, mais aussi a augmenté sa nécessité à communiquer cette information en temps réel, avec l’utilisation des smartphones et des forfaits internet illimités qui vont avec. C’est bien entendu dans ce domaine que 2011 va encore voir des progrès, non seulement en termes de fonctionnalités, (dont je peux vous parler plus tard), mais aussi en terme de diversité des acteurs, ce qui comprend les constructeurs qui vont emboiter le pas d’Apple et Samsung. Pour être un peu plus brutal dans l’aspect prédiction, comme la photo numérique a remplacé intégralement l’argentique en 15 ans, le triptyque écran-clavier-souris va en prendre un bon coup avec l’avènement du tactile.

Donc du coté matériel, les claviers et souris vont donc disparaitre en 2011 ?

Oui, il n’y aura plus en magasin aucun clavier ni aucune souris, on devra se les procurer d’occasion et au marché noir, et de toutes façons on en aura plus aucun besoin. Plus sérieusement, quand même, d’abord pour le clavier : il n’est finalement utile que quand on tape dessus, autrement il prend de la place sur un bureau ; au contraire un clavier tactile peut n’apparaitre que quand on a besoin. De plus un clavier mécanique est complètement fixe, les touches sont toujours toutes présentes et au même endroit, et de nombreuses touches ne servent à rien à la majorité des utilisateurs ; au contraire un clavier tactile s’adapte au contexte : lors de la saisie d’une adresse email, l’arobase est bien visible, et l’espace n’est pas présent non plus lors de la saisie d’un nom de domaine. Au final, un clavier physique n’est qu’un simple consommable, en plus il est mécanique, donc soumis aux pannes et surtout aux incroyables salissures qu’on peut tous constater : faites un zoom sur la photo avec flash d’un clavier qui a plus d’un an pour voir. A terme oui il vont disparaitre dans leur forme actuelle pour le grand public.

Ensuite il y a la souris. J’avais autrefois un prof d’algorithmique suédois qui prédisait son avènement, ainsi que le principe du bouton sur l’écran sur lequel on allait cliquer après avoir déplacé le pointeur de la souris dessus ; on se foutait de sa gueule c’était génial, et c’est pourtant ce qu’on a tous fait pendant 20 ans, car il y avait là tout le nécessaire de l’époque : se déplacer en 2 dimensions et déclencher une action sur un point précis. La souris mécanique servait à ça, avec sa boule sous le dessous qui faisait bouger 2 petits rouleaux pour les 2 axes, et un ou deux boutons pour faire comme une touche de clavier. Vous voyez là ou je veux en venir. Oui la souris a évolué, elle est maintenant optique laser, mais hélas ne fonctionne pas sur une surface rouge ou transparente, et n’a toujours que sa fonction de base en 2D. Son remplaçant est déjà là, et il est tactile lui aussi, c’est le pad tactile, le trackpad d’Apple en est un très bel exemple, les actions multi-touches (pour ne pas dire multi-touch) exécutent des actions extrêmement simples avec plusieurs doigts, 2 doigts pour tourner en 3D, pour zoomer et pour scroller.

Le plus fort dans tout ça c’est l’aspect le plus évident : le remplaçant du clavier et le même que le remplaçant de la souris : c’est le pavé tactile. Alors en plus, s’il peut y avoir une fusion avec l’écran tout est bouclé : la distinction sera faible entre un pavé tactile virtuel qui s’intègre dans l’écran et potentiellement un jour un écran qui s’affichera en fond de notre pavé tactile, ils le font déjà dans les films. Si on ajoute a tout ça un peu de transparence, un peu de verticalité et un peu de captation 3D lumineuse et on se refait une console de pilotage de vaisseau spatial comme dans Avatar, District 9 ou la série V. Mais bon, pour l’instant on a l’Ipad, et c’est déjà un énorme début qui annonce concrètement cette révolution.

Et pour l’aspect logiciel donc, qu’est ce qui va se passer en 2011 ?

Et bien d’abord il va falloir très vite que les informaticiens intègrent cette révolution du tactile, ce qu’on appelle le Web 2.0 sensé ajouter de l’interactivité entre l’utilisateur et une e-application (une application internet) n’est pas encore tout a fait démocratisé dans la vraie vie. On a encore une quasi exclusivité sur internet du principe du HTML d’il y a 40 ans, surtout du HT, l’hyper-texte, principe qui correspond au fait qu’un click affiche une autre page, ou re-affiche la page en prenant en compte le click. C’est tout a fait inadapté au tactile dont les manipulations sont beaucoup plus rapides qu’à la souris. Il est de moins en moins supportable qu’un bouton pour ajouter un article dans un panier déclenche en même temps la réactualisation complète de la page de la boutique, la fibre optique n’existe pas encore dans les mobiles. Donc si on veut rester dans du client léger, il va falloir que les utilisateurs commencent à faire la différence entre un simple vieux site web, même dynamique, et une véritable e-application interactive. Je suis assez confiant pour ça : les gens le comprennent déjà sur le menu d’un DVD ou sur une borne SNCF, ils l’exigeront donc de plus en plus pour leurs besoins sur internet.

Concrètement, cela signifie que oui, on va de plus en plus entendre parler d’applications, qui pour nous forgerons est un terme de base depuis la nuit des temps mais qui pour le grand public commence à avoir une vraie signification. Prenons l’exemple encore d’Apple, avec son AppStore : un magasin d’applications, de programmes informatiques donc. Tout le monde connait. D’autres circuits de distribution parallèles se sont créés d’ailleurs, avec la légalisation du débridage des IPhone, mais aussi d’autres éditeurs ont créé leur équivalent, comme Google avec son Android Market. Cela va devenir un mode de distribution privilégié des grands acteurs, et on verra de moins en moins de boites de CD-ROMs à la FNAC. C’est là que les intégrateurs vont devoir se battre, pour continuer à développer leur solutions spécifiques et à faire valoir leurs avantages par rapport aux solutions toutes faites clé en main.

Pour ce qui est du contenu du logiciel alors, vers quoi allons-nous tendre ?

Oui en effet, je viens de vous parler plutôt du contenant, et de la forme des applications. Pour ce qui est du fond, je m’attendais l’année dernière à plus de progression des technologies mobiles dans les applications, c’est à dire l’intégration par exemple, de la géo-localisation. C’est de nos jours une technologie native pour tout ce qui est application mobile ou application internet, mais les projets informatiques ne proposent que peu cette option. A l’inverse, les applications de géo-localisation ne font que ça : juste se repérer, et il y a peu d’idées novatrices dans le domaine, la encore je suis pourtant confiant, car il y a des choses à faire. Pareil pour la réalité augmentée, ça existe depuis un an globalement, et on attendait des choses un peu plus sexy que ce qui existe actuellement, mais ça va suivre la progression de la géo-localisation je ne m’en fais pas. Je citerais bien aussi l’exemple de Foursquare, qui permet avec la géo-localisation d’aborder la notion de communauté d’une manière ludique, avec des points et des badges, la revendication de la gestion de points GPS individualisés c’est très innovant. Le géo-caching va aussi prendre de l’essort, et en général tout ce qui va être du ressort des géo-communautés.

Au point de vue des communautés justement, comment voyez-vous le futur proche ?

Avant de parler du networking social, il y a d’abord un point sur lequel on devrait voir des efforts, c’est sur la notion d’identification utilisateur, qui est essentielle pour pouvoir parler de communauté. Un gros travail je pense a été fait sur la notion de mot de passe dans l’absolu dans le conscient collectif, et de l’importance de la notion de compte : c’est en général comme cela que l’on sépare les sites internet en simplement 2 groupes : ceux qui ont une gestion de compte et ceux qui n’en ont pas. En général on ne peut garder que les mais provenant de sites où l’on s’est inscrit et où l’on a donné une adresse email. D’ailleurs un grand acteur a compris cela très bien en proposant des services annexes, je pense à Facebook, qui s’inscruste même de plus en plus sur les autres sites, sur lesquels on peut donc utiliser sa connexion Facebook pour recommander, relayer une information, ou simplement dire qu’on aime, ça marche très bien.

L’unification de compte utilisateur est un point très important et sensible. Microsoft avait d’ailleurs essayé il y a quelques années avec leur notion de passeport, mais à force de changer le nom de leurs technologies, les gens ne s’y sont pas retrouvés : MSN, MSN Messenger, Windows Live, Windows Live Mail, Windows Live Messenger, tous ces noms divers ont embrouillé les utilisateurs. Pour Google par contre, tout a été très clair : la notion de compte Google unifié qui sert pour tous les services Google est extrêmement efficace, je dirais même un peu trop, le simple fait de rester connecté sous son compte permet à Google de traquer toutes nos recherches, et surtout de les associer à notre personne. Ce n’est pas anodin car trop de personnes passent encore hélas par la recherche Google même pour aller sur un site dont ils connaissent parfaitement l’adresse.

Facebook a fait très fort là dessus aussi, on parle juste de la page Facebook tout le monde comprend, alors que même parler du site d’une entité ne sert à rien si non ne donne pas l’adresse de ce site, ce qui n’est même plus la peine avec Facebook. Ce qui fait un peu peur c’est que l’assimilation d’un concept se fasse avec son principal acteur : on fait trop le rapprochement entre réseau social communautaire ou personnel avec le site Facebook.com, comme on faisait il y a quelques années le rapprochement entre contenu d’internet et le site Google.com. Si on revient sur Facebook, une des preuves de son importance en est que le bon référencement ne consiste plus simplement à être bien placé dans le plus complet des moteurs de recherche, mais aussi d’être présent sur les réseaux sociaux et autres encyclopédies ou forums en ligne. D’ailleurs une part de plus en plus grande du budget de réalisation d’une e-application passera dans son référencement, et par la publicité. C’est la publicité la source des revenus des and s acteurs, c’est ce qui en fait leur valeur boursière, il n’y a pas de mystère.

Vers quoi vont donc évoluer ces grands animateurs de communautés ?

Et bien il faut d’abord savoir regarder en coulisses ce qui se passe. Le simple fait que des sociétés comme Google ou Facebook justement, proposent des services techniques, destinés aux architectes informatiques, pour développer de nouvelles fonctionnalités sur leur plate-forme, est un révélateur très important. En fait ils n’inventent rien, il documentent simplement la façon d’intégrer nos services chez eux (je parle du point de vue de l’informaticien) ou d’intégrer leurs services chez nous. C’est la fusion de nos compétences avec leur notoriété, c’est du gagnant-gagnant. Le risque pour les intégrateurs c’est quand même de subir la loi unilatérale de ces acteurs : rien n’empêche un jour à Google de modifier par exemple les restrictions de publication automatique de vidéos sur YouTube, ou à Facebook du jour au lendemain de supprimer l’accès à certaines informations à toutes les applications qui les utilisent. Je ne parle même pas d’Apple qui exerce bel et bien son droit, avec des pratiques qui auraient fait crier au coté obscur à la belle époque de Microsoft.