lundi 15 septembre 2014

Now for Apple "one size doesn't fit all"

Ce qu'on peut retenir de la keynote Apple du 9/9/2014 c'est que désormais "one size doesn't fit all" (une seule taille ne convient pas à tout le monde).
L'iPhone avait conservé un écran 3,5 pouces de 2007 à 2011 (du modèle 1 au 4S), puis adopté un écran 4 pouces en 2012 avec l'iPhone 5.
Depuis plusieurs années, la concurrence proposait des "grands" écrans, supérieurs à 4,5 pouces en 2011 et supérieurs à 5 pouces en 2012.
Plus récemment, des montres connectées avaient fait leur apparition chez Samsung, LG et Qualcomm avec des écrans de l'ordre de 1,6 pouces.

Apple rentre dans la danse, avec retard, en proposant une gamme de smartphones avec des écrans allant de 4 à 5,5 pouces (4'' pour le 5, 4,7'' et 5,5'' pour le 6) et, à partir de 2015, deux montres dotées d'un écran carré de 1,5 et 1,7 pouces.

Que pensez de ces smartphones avec des écrans XXL et de ces montres avec des écrans XXS ?
En première analyse, en terme d'expérience utilisateur, pas que du bien, les uns sont trop grands et les autres trop petits.

Initialement, les smartphones full tactile étaient conçus pour un usage à une main, il faut bien constater que ce n'est plus possible avec des écrans de plus de 4,5 pouces et encore moins avec des smartphones android qui raffolent de tab bar (barre d'onglets) en haut de l'écran ou de hamburger menu (menu d'options) tout en haut à gauche.

N'oublions pas que si la technologie progresse à grand pas, la taille de la main humaine ne change pas (ou alors très très lentement).
La meilleure preuve que plus grand, c'est trop grand, c'est la rumeur de l'ajout du "one hand mode" dans IOS 8.
One hand mode ou reachability mode.

Quand aux montres, il faut se rappeler qu'une bonne expérience d'interaction tactile nécessite des cibles à l'écran (icônes) de l'ordre de 25 mm (1'') pour des actions courantes et au minimum de 8 mm (0,4'') pour des actions précises moins fréquentes.
Considérant que le dispositif est multitactile, un simple zoom à deux doigts recouvrera presque toute la surface de l'écran. Si vous vous amusez à faire le calcul, vous devriez trouver de l'ordre de 60 à 80% de la surface de l'écran occultée par vos doigts. Bien sûr, ça dépend de la taille de vos doigts !
Deux doigts masque plus de la moitié de l'écran.

Apple doit être conscient du problème car il a mis une molette sur sa montre, appelée digital crown, pour défiler ou zoomer, c'est à dire pour des actions qu'on effectue habituellement à 2 doigts sur un écran ou un pavé tactile. Pour interagir avec l'Apple Watch, vous devrez plutôt compter sur Siri, ce qui vous donnera un look d'agent secret.

En résumé, plus grand ou plus petit ne garantit pas une meilleure expérience utilisateur. Entre l'écran XXL et XXS, le bon compromis est sans doute l'écran de 4,5 pouces.

Plus que la taille de l'écran, c'est la taille du dispositif qui est importante, en fait le facteur de forme... et ça fait longtemps qu'on connait la bonne dimension. C'est celle qu'avait fixée Jeff Hawkins, créateur du Palm, en 1992, c'est en gros la taille d'une poche. La taille idéale, c'est 120 x 80 mm et le plus fin possible.
C'était la taille du premier Palm (Palm 1000 de 1996). L'iPhone 5 a la bonne hauteur (124 mm), tout en étant moins large (59 mm) ce qui est bien. L'iPhone 6 Plus lui a la bonne largeur (78 mm) mais devient hors norme en hauteur (158 mm).

En conclusion, quelque soit les possibilités de la technologie - on ne peut pas comparer un Palm 1000 avec un écran de 3,2'' en 160x160 pixels et un iPhone 6 Plus avec un écran de 5,5'' en 1920x1080 pixels et 401dpi -  les contraintes principales viennent toujours de l'utilisateur, de ses "fat fingers" (gros doigts) et des petites poches de son jean skinny.

Skinny jean.

dimanche 16 février 2014

Wear the world avec Fin

L'interaction gestuelle n'en finit pas de proposer de nouveaux dispositifs séduisants.

Ça a commencé avec SixthSense (2001) qui a litéralement sidéré les médias spécialisés et le grand public. Initialement ce projet porté par Pranav Mistry s'appelait "Wear ur world".

On a découvert un peu plus tard wii (2004) qui promettait de nous faire bouger en déclarant "Wii Move You".

On a eu ensuite Kinect (2010) qui nous révélait "You're the controller".

Puis est arrivé Leap Motion (2013), le dispositif gestuel tout compris "Hands and fingers included".
Et le petit dernier, c'est Fin (2014), qu'on porte au doigt pour contrôler le monde avec pour slogan "wear the world".

L'interaction gestuelle stimule les chercheurs et innovateurs des quatre coins du monde.
Wii débarque du Japon, Kinect arrive d'Angleterre (Cambridge) et du nord-ouest des USA (Redmond), Leap Motion diffuse de Californie et, plus surprenant, Fin naît dans le sud de  l'Inde, au Kerala.

La première similitude des slogans entre SixthSense et Fin est dans les slogans Wear ur world et Wear the world, c'est la même promesse du wearable computing. En français, on dit informatique vestimentaire, mais pour ces deux systèmes, point question de vêtement, il faut plutôt parler désormais d'informatique corporel.

L'autre similitude entre ces deux systèmes, c'est l'origine de leurs concepteurs, deux indiens Pranav Mistry et Rohildev Nattukallingal. C'est l'indian touch.

SixthSense n'était qu'un prototype de recherche. On n'imagine pas vraiment interagir gestuellement avec des capuchons colorés au bout des doigts, mais on se voit bien porter l'anneau de Fin autour du pouce, c'est même plutôt tendance.

Une petite vidéo de 1 minutes présente Fin :

rhlvision qui développe Fin le présente ainsi : "Fin is a trendy gadget you can wear on the thumb and make your whole palm as a digital touch interface" ("Fin est un gadget tendance porté sur le pouce qui transforme toute votre paume en une interface tactile numérique").

Fin est donc un dispositif d'interaction gestuelle sans contact avec l'appareil qu'il contrôle à distance (smartphone, télévision, équipement domotique...).
Le principe est d'affecter chaque phalange à une commande ; par exemple, un simple tap du pouce sur l'extrémité du majeur permettra de mettre son smartphone en mode silence.

On peut voir Fin comme
- une télécommande sans bouton où le zones actives sont les différentes phalanges des doigts,
- un clavier de commande dans la main,
- un système de raccourcis (hot keys) au bout des doigts.

Techniquement, ce petit bijou correspond à ça :

Pranav Mistry y est allé de son tweet pour soutenir le lancement de Fin :

Fin, c'est avant tout, un petit bijou de technologie, mais aussi un bijou tout court. C'est peut-être le premier bijou* numérique (digital jewel).

Pour en savoir plus : http://www.wearfin.com

--------------------------------------------------------------------------------------------------------------------
* Pour les fondus d'étymologie,  "bijou" vient du breton "bizou" qui signifie anneau, qui vient lui même de "biz" qui signifie "doigt".

dimanche 29 septembre 2013

Une enquête montre que c'est le grand amour entre les consommateurs et le tactile


Ce blog est né en mars 2007, entre l'annonce de l'iPhone en janvier 2007 à la Mac World de San Francisco et sa commercialisation aux Etats Unis en juin 2007 (en France, en novembre 2007).

J'étais personnellement convaincu que le tactile allait révolutionner notre communication avec les systèmes interactifs. Il faut dire que près de 15 ans plus tôt, j'avais poussé à expérimenter des surfaces tactiles en automobile chez un de nos constructeurs nationaux.

Six ans après, on a oublié qu'en 2007, la plupart des experts, tout comme le grand public ne voyaient pas vraiment l'intérêt des écrans tactiles et du multitouch.

BlackBerry Curve (2007).
En 2007, le top du top en matière de smartphone était le BlackBerry Curve avec son clavier physique qwerty et son trackball.
En mars 2008, RIM déclarait 14 millions d'usagers quand, à cette date, Apple avait vendu moins de 5,5 millions d'iPhones.

Certains avaient tout de même détecté que l'iPhone était une innovation majeure, Time Magazine avait décerné le titre de l'innovation de l'année 2007 à l'iPhone.

Si Apple n'a pas inventé le multitouch, il a su quoi en faire et rendre "magique" l'utilisation du smartphone en donnant à l'utilisateur l'illusion de manipuler ses données directement aux doigts.

Six ans plus tard, l'interaction multitactile s'est imposée sur nos smartphones, tablettes, bornes et certains PC, et ceux qui n'ont pas suivi ou pris du retard comme Nokia ou RIM ont été rachetés ou sont en passe de l'être.

Le tactile, c'est le doigt connecté à la pensée.


Que disent aujourd'hui les utilisateurs du tactile, qu'est ce qui leur plait dans ce type d'inter-action ?




Pour le savoir, il faut regarder cette vidéo réalisée dans le cadre d'une enquête Ipsos pour Microsoft sur plus de mille personnes qui explique pourquoi le tactile est très apprécié par les consommateurs.

Si en 2006, très peu voyaient l'intérêt des écrans multitouch, aujourd'hui 72% les apprécient et 81% trouvent même cela révolutionnaire.
On note encore que les utilisateurs apprécient la rapidité d’exécution au toucher (79%), l’intuitivité (76%) et le côté agréable au toucher (71%), enfin pour 91% le tactile leur simplifie la vie.

Ce qu'ils disent du tactile c'est que c'est rapide, simple, naturel, facile, ludique, sensoriel, addictif, futuriste et magique. Que du positif !

En 5 ans, l'avis des français sur le tactile est donc passé de "bof" à "plus belle la vie" avec mes écrans tactiles !

samedi 31 août 2013

L'erreur d' Engelbart : privilégier l'efficacité au détriment de l'utilisabilité

J'avais promis un retour sur la vision de Doug Engelbart qui a guidé toute sa vie de chercheur (cf. article précédent de ce blog).
Doug Engelbart est incontestablement une figure majeure de l'histoire de l'informatique, mais, il faut le reconnaître, s'il a été un inventeur de génie, s'il a su tirer le meilleur de la technologie, il s'est totalement trompé sur les capacités et les motivations humaines.

Alan Kay, autre acteur exceptionnel de l'informatique, a expliqué l'erreur d'Engelbart en une phrase : "Engelbart, for better or for worse, was trying to make a violin…most people don’t want to learn the violin" ("Engelbart, pour le meilleur ou pour le pire, essayait de fabriquer un violon ... la plupart des gens ne veulent pas apprendre le violon").

Comme je l'écrivais dans l'article précédent, "Toute sa vie, Engelbart a cherché à concevoir des outils améliorant la communication et la collaboration humaine pour permettre à l'humanité de résoudre des problèmes toujours de plus en plus complexes". Engelbart pensait que l'utilisateur, pour tirer au mieux profit de ces nouveaux systèmes informatiques, serait prêt à passer de longue heures à apprendre à les utiliser de façon performante. C'est là qu'il s'est trompé.
Chorded keyboard, clavier et souris du système NLS.
La phrase d'Alan Kay est très juste, j'emploierais plutôt la métaphore du piano car Engelbart pensait que l'utilisateur apprendrait tous les accords possibles (31 au total) du chorded keyboard pour saisir du texte et apprendrait à combiner un accord sur ce clavier avec un appui sur les boutons de la souris pour entrer une commande dans le système NLS. Dans les faits, seul Engelbart a dû faire cet effort d'apprentissage pour contrôler son système.

Pour Engelbart, comme d'ailleurs pour ses contemporains, dans les années 60 et 70, la priorité était d'avoir une interaction performante, efficace, ce n'est qu'à partir des années 80 que l'utilisabilité est devenue la priorité des concepteurs d'interaction.
Dynabook (Alan Kay, Xerox PARC, 1972)
Sur ce point Alan Kay, encore lui, fait figure d'exception, en proposant Dynabook en 1972 dans un article intitulé "A Personal Computer For Children Of All Ages". Kay avait déjà le souci de l'utilisabilité, mais Dynabook n'était qu'un concept, il n'est donc pas possible de juger réellement son utilisabilité. Dynabbok reste néanmoins l'ancêtre des tablettes, en quelque sorte l'inspirateur du Newton, sorti 20 ans plus tard, ou encore de l'iPad, sorti presque 40 ans après (encore une fois Apple doit beaucoup à Xerox).

Engelbart avait bien compris que les ordinateurs, excessivement rare et incroyablement volumineux dans les années 60, allaient se multiplier, se miniaturiser et se populariser, mais il n'avait pas compris que ce ne serait possible qu'au prix d'une simplification de l'interaction. En passant d'un marché de grands comptes (jusqu'aux années 70) à un marché de masse (à partir des années 80), inévitablement l'interaction homme-machine devait devenir toujours plus simple pour satisfaire un utilisateur de moins en moins disposé à apprendre comment fonctionne son système.
L'erreur d'Engelbart a été de croire que l'accroissement de la complexité des tâches réalisables par les machines allait de paire avec une augmentation de la performance des utilisateurs et une interaction plus experte.

Je terminerai en citant un commentaire brillant de Gene Golovchinsky du FXPAL, disparu en août 2013 qui écrivait en juillet 2013 :
"I think one problem with Engelbart’s argument is the confusion between interface complexity and task complexity. I would argue that the more complex, cognitively demanding the *task* is (running a power plant, landing an airplane, etc.) the more the *interface* has to stay out of the way. One can tolerate interface idiosyncrasies in MS Word much more than in an airplane because the tasks are less demanding and the consequences of malfunction are less severe. This does not argue against the need for skilled operators nor against the need for competent interface design. Appropriate interface design is orthogonal to the complexity of the task, to the sophistication of the user, or to the need to foster learning. While differences in task and operator skill call for differences in interfaces, it does not follow that interfaces should be difficult to use once the user’s skills and task are taken into consideration".

(Je pense qu'un problème avec l'argument d'Engelbart est la confusion entre la complexité de l'interface et la complexité de la tâche. Je dirais que plus la tâche est complexe et exigeante cognitivement (gestion d'une centrale électrique, l'atterrissage d'un avion, etc) plus l'interface doit rester à l'écart. On peut tolérer les particularités de l'interface dans MS Word bien plus que dans un avion parce que les tâches sont moins exigeantes et les conséquences de dysfonctionnements moins sévères. Cela ne s'oppose pas à la nécessité d'avoir des opérateurs qualifiés, ni à la nécessité d'une bonne conception de l'interface. La conception d'une interface appropriée est orthogonale à la complexité de la tâche, à la sophistication de l'utilisateur, ou à la nécessité de favoriser l'apprentissage. Si des tâches ou des opérateurs différents appellent des interfaces différentes, ça n'implique pas que les interfaces doivent être difficiles à utiliser une fois les compétences et les tâches de l'utilisateur prises en considération)


dimanche 4 août 2013

Douglas Engelbart : une petite souris pour l'homme et une grande vision pour l'humanité

Comme toute discipline, l'informatique connait quelques vedettes, connues de tous, comme Steve Jobs, Bill Gates ou Mark Zuckerberg.
Pas mal de personnalités qui ont joué ou jouent un rôle important en informatique sont déjà bien moins connues comme Steve Wozniak, Steve Ballmer (ça fait beaucoup de Steve), Eric Schmidt, Vinton Cerf, Tim Berners-Lee...
Enfin, les acteurs majeurs de la discipline sont totalement inconnus du grand public comme Gordon Moore, Ken Olsen, Mitch Kapor, Ivan Sutherland, Alan Kay, Mark Weiser ou Douglas Engelbart.

Ce dernier a disparu le 2 juillet 2013 à l'âge de 88 ans, c'est l'occasion de rappeler le rôle qu'il a joué en informatique et en particulier dans le domaine de l'interaction homme-machine.
D. Engelbart - Présentation de NLS en 1968

Quand vous demandez à quelqu'un ce qu'a fait Doug Engelbart, il y a peu de chance qu'il vous réponde correctement et si vous demandez qui a inventé la souris, il n'y a pas plus de chance qu'on vous réponse Doug Engelbart.
Pourtant, il y a des milliards de personnes qui utilisent la souris (vous me direz qu'il n'y a pas plus de chance qu'on vous réponde que l'inventeur du réfrigérateur est Carl von Linde) !

En revanche, si vous demandez à un informaticien quel serait son guru ou son modèle, peu vous répondront Steve Jobs, Bill Gates, Mark Zuckerberg, mais sans doute que plusieurs évoqueront Doug Engelbart, et si vous posez la question à un spécialiste de l'interaction homme-machine, c'est peut-être le nom qui reviendra le plus.

Si Doug Engelbart est un modèle pour beaucoup, c'est parce qu'on lui doit bien plus que la souris. En fait, dans les années 60, il a fait prendre à l'informatique le virage des interfaces graphiques. Pour lui, ce type d'interface n'était pas une fin, mais un moyen de réaliser sa vision.  Il voulait concevoir un système capable d'améliorer les capacités cognitives humaines. Cette vision avait une origine précise, c'était le projet Memex (MEMory EXtender) développé par Vannevar Bush dans les années 40.

Memex était un concept d'ordinateur analogique (les ordinateurs numériques n'existaient pas encore) permettant de naviguer dans une grande quantité de documents sous forme de microfilms (en quelque sorte un précurseur de l'hypertexte), pour Bush, c'était une forme d'extension de la mémoire humaine.
Doug Engelbart avait passé une partie de son service militaire aux Philippines en tant qu'opérateur radar, s'ennuyant passablement, il avait lu l'article As We May Think publié en 1945 par Vannevar Bush dans Life magazine qui décrivait le projet Memex.

En 1959, Engelbart entre au Stanford Research Institute (aujourd'hui SRI International), en 1961, il créé l'Augmentation Research Center (on retrouve dans le nom la notion d'augmentation des capacités humaines) au sein duquel il dirige jusqu'en 1968 le projet NLS (oN Line System) qui peut être vu comme la réalisation numérique du projet Memex de Vannevar Bush.

C'est le 8 décembre 1968, à San Francisco, lors d'une démonstration faite par Doug Engelbart que le monde informatique découvrira le projet NLS. Le côté spectaculaire, pour l'époque, de cette démonstration fit que depuis elle est appelée "la mère de toutes les présentations" (the Mother of All Demos). Ce premier one man show de l'histoire de l'informatique (il reçut une ovation debout) préfigura les fameuses keynotes de Steve Jobs.

Le travail d'Engelbart, dans les années 60, ne se résume donc pas à l'invention de la souris mais à la conception et la réalisation du système NLS qui est en quelque sorte l'ancêtre des interfaces graphiques, de l'hypertexte et des ordinateurs en réseau. La démonstration aborde des sujets révolutionnaires,pour l'époque, comme le traitement de texte, le courrier électronique, la travail coopératif et la vidéoconférence.
Quand les ordinateurs de l'époque en sont encore aux cartes perforées, aux écrans en mode caractère, NLS utilise un écran graphique, une souris et un clavier à accord.

En quoi le projet NLS est exceptionnel, quelles leçons pouvons-nous en tirer aujourd'hui ?

  • NLS est d'abord un projet qui a réussi car il était dans un écosystème favorable (bon financement,  liberté d'engager une petite équipe, carte blanche pour une recherche sur Augmenting Human Intellect, pas de contraintes administratives).
  • NLS a réussi également car son concepteur avait une vraie vision à long terme forgée 15 ans plus tôt (en rupture avec les ordinateurs de l'époque et poursuivant la quête d'augmentation des capacités humaines).
  • NLS a réussi car il n'a pas cherché à améliorer un peu les caractéristiques des systèmes de l'époque, mais a cherché à les changer radicalement (il n'a pas essayé d'afficher mieux les caractères à l'écran mais à afficher des symboles manipulables directement).
  • Engelbart, à la fin de la 2e guerre mondiale, constatait que le monde changeait, que les problèmes à résoudre étaient plus complexes, il pensait donc qu'il était urgent de trouver une solution technologique pour augmenter nos capacités cognitives.
  • Engelbart qui, militaire, avait travaillé sur des consoles radar, avait trouvé logique d'utiliser un écran graphique et un dispositif de pointage alors qu'un informaticien "normal" n'aurait certainement jamais eu ces idées "saugrenues".
Que pouvons-nous dire de plus sur cette fameuse souris ?
Souris de Doug Engelbart réalisé par Bill English en 1963
Souris de Doug Engelbart
réalisé par Bill English en 1963
Souris 3 boutons utilisée en 1968
Souris 3 boutons utilisée en 1968
Clavier à accord, clavier qwerty, souris
3 dispositifs d'entrée du système NLS
Test d'un dispositif
actionné au genou
  • Elle apparaît dans le projet NLS en 1963, elle fait l'objet d'un dépôt de brevet du SRI en 1967 (enregistré en 1970) sous le nom de dispositif de position x,y pour écran  (x,y position indicator for a display system). Engelbart en a l'idée en 1961 alors qu'il "révasse" en assistant à une conférence sur l'informatique graphique. Il imagine deux roues qui en se déplaçant sur une surface mesureraient une distance comme le fait un planimètre.
  • En bon chercheur Engelbart comparera pas mal de solutions  de contrôle du curseur à l'écran, déjà existantes ou développées par son équipe : des pédales, un dispositif actionné par le genou, un Graficon (tablette graphique de BBN), un stylo optique ou encore un joystick. En terme de précision et de vitesse, la souris d'Engelbart l'emporta largement. La souris n'est donc pas le 1er dispositif de pointage (le stylo optique, le joystick ou le trackball sont plus anciens), mais le plus efficace dans un contexte d'ordinateur de bureau.
  • Engelbart n'a pas choisi la souris pour son utilisabilité, son côté intuitif, mais seulement pour son efficacité. En fait l'usage de la souris n'est en rien intuitif et encore moins celle du système NLS qui avait 3 boutons.
  • Engelbart voulait utiliser au mieux les capacités humaines, en particulier exploiter au mieux les 5 doigts de chaque main. Il a donc réalisé des souris avec 3 ou 5 boutons. Il a trouvé que 3 boutons pouvaient suffire. Xerox a repris ce type de souris sur l'Alto en 1973, puis Xerox a proposé une souris avec 2 boutons sur le Star en 1981, avant qu'Apple en 1984 ne sorte une souris à un bouton sur le Macintosh (ce qui montre que la première solution n'est jamais la plus simple).
  • Engelbart avait le souci de la performance bien plus que de l'utilisabilité, pour entrer efficacement du texte, il comptait sur un clavier à accord (chorded keyboard). Il était aussi fier de ce clavier que de sa souris. Il pensait que l'utilisateur ferait l'effort d'apprendre à utiliser ce type de clavier très efficace qui permettait d'entrer un caractère par un simple accord (un appui simultané sur une à cinq touches du chorded keyboard). Sur ce point, il s'est totalement  trompé, l'utilisateur a adopté la souris, mais le clavier à accord a été rejeté par tous, même des utilisateurs professionnels (un prochain billet sur ce blog développera ce point).
  • Engelbart s'étonnait que le terme souris lancé spontanément ait été immédiatement adopté au sein de son équipe. Il avouait ne plus savoir qui l'avait utilisé en premier. En revanche, le terme bug qui désignait le curseur à l'écran n'a pas survécu au projet NLS.
Pour conclure, Doug Engelbart a inventé une petite souris pour l'homme qui, à l'heure des interfaces tactiles ou gestuelles, n'a toujours pas dit son dernier mot.
Son réel objectif était de rendre l'humain plus performant dans ses activités cognitives. Toute sa vie, il a cherché à concevoir des outils améliorant la communication et la collaboration humaine pour permettre à l'humanité de résoudre des problèmes toujours de plus en plus complexes.

C'est désormais aux grands acteurs de l'informatique d'aujourd'hui de poursuivre cette grande vision pour l'humanité.






mardi 19 mars 2013

2013 n'a rien à voir avec ce qui avait été imaginé pour 2013

Vision de 1988 de First Street (L.A.) en 2013 !
En 1988, le Los Angeles Times Magazine publiait un long article de 16 pages (Techno-comforts and urban stresses - fast-forward to one day in the life of a future family) qui décrivait la vie à L.A. en 2013.
C'était une projection à 25 ans établit par des architectes, des urbanistes, des scientifiques, des sociologues... Beaucoup de spécialistes ouest américains  des plus grands organismes publics ou privés avaient été consultés.
Ils imaginaient une vie radicalement différente de ce qu'elle est aujourd'hui en 2013.
Pour simplifier, ce qu'ils avaient prédit ne s'est pas réalisé et tout ce qui est arrivé dans le domaine des TIC n'avait pas été prévu.

Comment donc les futurologues voyaient la vie à L.A. en 2013 ?
Ils imaginaient d'abord qu'on disposerait chez soi d'un puissant ordinateur avec des terminaux reliés par fibre optique dans les différentes pièces de la maison. Cet ordinateur permettrait d'accéder à d'énormes bases de données, à télé-travailler grâce à des liaisons satellites, à faire de la vidéoconférence.
L'ordinateur central serait également relié à un contrôleur qui gèrerait les lumières, l'alarme intrusion, l'alarme incendie, les portes...
Pour les tâches ménagères, un robot domestique ferait l'essentiel : il commencerait par venir vous réveiller le matin en frappant à votre porte et en vous appelant par votre prénom, il préparerait tous les repas, passerait la serpillère, referait les lits. Une disquette permettrait de mettre à jour son programme.
Le robot saurait également à qui il faut ouvrir la porte, il n'oublierait pas de débrancher les appareils rechargés et lui même irait se brancher quand il manquerait d'énergie.
Les appareils ménagers seraient connectés (cafetière, bouilloire, réfrigérateur, four...), le réfrigérateur connaitrait son contenu car son système de vision artificielle reconnaitrait tout ce qui est mis ou sortis par vous ou par le robot domestique. En cas de dysfonctionnement, les appareils ménagers contacteraient directement leur fabricant pour être réparés.
Parfois le robot ferait quelques bêtises (vous ne manqueriez pas de le réprimer et l'enverriez dans un placard pour le punir), au cas où il renverserait un plat en le mettant dans le four, vous pourriez téléphoner à un tuteur culinaire artificiel qui vous enverrait une recette adaptée sur l'écran du terminal de la cuisine.
Les communications seraient facilitées car le téléphone traduira en temps réel les conversations avec un étranger. Vous pourriez ainsi converser en visiophonie avec un client japonais qui vous appellerait depuis son vol supersonique Tokyo-Los Angeles.
Vous recevriez vos journaux sous une forme personnalisée que vous imprimerez sur votre imprimante laser.
Votre enfant aurait un robot personnel, il ressemblerait à s'y méprendre à un vrai chien, qui l'aidera grandement pour apprendre à lire, faire ses devoirs et lui dire comment s'habiller. Ils communiqueraient naturellement par la voix.
A l'école, votre enfant aimerait utiliser son bureau-ordinateur  dans lequel il introduira sa carte qui retrace son histoire scolaire et ses acquis. Le plafond, le sol et les murs de la classe seraient des grands écrans qui permettront, par exemple, dans un cours d'histoire, en appuyant sur un bouton, de projeter la reconstitution d'une cérémonie maya.
A la maison, l'enfant ferait ses devoirs en consultant l'encyclopédie ou les collections du Louvre sur disques laser.
Comme à l'école, à la maison, les murs seront dés écrans pour permettre de changer le décor au gré de ses envies.
Pour se rendre au travail, les plus astucieux emprunteraient la voie électronique (electro-lane) où circule uniquement les véhicules reliés électroniquement. Les autres resteront englués dans des embouteillages épouvantables (on est à L.A. !).
Pour gagner du temps et de l'argent, vous éviteriez d'aller à la banque car les services au guichet seront facturés 25$, vous utiliserez le service vidéo-bancaire (video-banking) grâce à votre connexion par fibre optique qui a remplacé les anciennes lignes téléphoniques en cuivre. Pour retirer de l'argent, vous n'utiliserez un distributeur qui vous identifiera par votre empreinte digitale.
Enfin, du matin au soir, les communications avec vos proches et vos collègues se feraient principalement par courrier électronique (electronic mail).

Force est de constater que la vie en 2013 ne ressemble pas à ce scénario, ni à L.A., ni ailleurs.
Bien des choses ont disparu : les supersonique, les disques laser, les disquette, le terminal connecté à l'ordinateur central...
Bien des choses qui devaient disparaître sont toujours là : les fils de cuivre, le clavier, les corvées domestiques (faire son lit, faire la cuisine, étendre le linge...), taper son code ou son mot de passe.
Bien des choses n'ont pas vu le jour : les robots ménagers intelligents à tout faire, le robot animal plus vrai que nature, les murs, les écrans à la place des murs, des sols et des plafonds, la traduction automatique en temps réel des conversations téléphoniques, les voies routières électronique pour les smart cars...
Bien des choses ont été proposés sans aucun succès (en fait, tous les smart appliances) : le smart fridge, le smart four, le smart contrôleur domestique...

Le plus surprenant est que ce qui s'est véritablement imposé depuis 25 ans et surtout depuis moins de 10 ans, n'avait absolument pas été envisagé dans ce scénario.
Le téléphone est devenu sans fil, puis mobile (GSM), puis smart, puis full tactile (smartphone).
L'ordinateur n'est pas centralisé et relié à des terminaux par un réseau de fibre optique, mais mobile, personnel et relié sans fil (wifi).
On ne parle pas à l'ordinateur ou au robot (un petit peu à son smartphone), on préfère largement lui taper dessus (interaction tactile).
Les écrans ne sont pas simplement des surfaces d'affichage mais aussi de plus en plus des surfaces d'interaction (écran multitactile).

Message électronique avec Eudora.
De ce long scénario futuriste, il y a une seule prédiction qui s'est vraiment réalisée, c'est le courrier électronique. Il faut tout de même noter qu'il existe depuis 1965, en 1991, Arpanet utilisait déjà "@" pour ses messages et en 1988, année de l'article, il y avait déjà l'excellent client de messagerie Eudora. Il ne fallait donc pas être grand clerc pour imaginer le développement de la messagerie électronique !
Pour les reste des prévisions, il y a loin du rêve de 1988 à la réalité de 2013.

Comme disait Niels Bohr : "La prédiction est un art difficile, spécialement quand cela concerne le futur ".  C'est bien vérifié avec l'article L.A. 2013.

Si nous refaisions le même exercice en 2013 et imaginions la vie dans 25 ans, en 2038, je crains bien que nous ne serions pas meilleurs.
Nous proposerions sans doute de nouveaux services sur des tablettes flexibles, un accès universel aux données stockées dans les nuages et des murs interactifs dans nos maisons. Pas sûr, encore une fois, que ça ressemble à la vraie vie des descendants de la génération Z.

lundi 27 août 2012

Les bons artistes copient, les grands artistes volent

Mais qui a pu bien dire "les bons artistes copient, les grands artistes volent" ? Un indice, c'est un des génies du XXe siècle, un grand créateur.
Apple iPhone 4 vs Samsung Galaxy S
Qui a dit Steve Jobs ?
Perdu, c'est Pablo Picasso.
Steve Jobs a juste repris (ou volé) la phrase de Picasso.
Dans une interview en 1996 (voir la vidéo), il déclarait "Good artists copy, great artists steal", ajoutant "we have always been shameless about stealing great ideas".
Si on s'arrête à ces deux phrases, comme beaucoup le font, on comprend que Jobs incite à copier et voler sans vergogne les grandes idées des autres. C'est à partir de cette interprétation que certains, atteints d'applelophobie, expliquent que Jobs n'est pas un inventeur, mais juste un sale copieur. La preuve, pour le Mac, il se serait contenté de copier la GUI de Xerox (mais la vérité est un peu plus compliquée).
Dans la suite de l'interview, Jobs précise sa pensée, son idée c'est qu'il faut prendre ses idées en dehors de l'informatique, regarder ailleurs, "se mettre en contact avec ce que les êtres humains ont fait de mieux, puis à tenter de l'intégrer à ce que vous faites".
Un exemple, on peut reprendre l'idée de la palette du peintre et l'intégrer dans un logiciel en tant que nouvelle forme de fenêtre de commandes. C'est ça voler une superbe idée, la prendre du monde réel et la transposer dans le monde numérique.
En revanche, reprendre dans son smartphone, le rebond des pages de l'iPhone ou encore le pinch and expand à une main pour zoomer, c'est une copie peu glorieuse.
C'est ça que pensait Jobs.
Si en plus, ce type de rebond ou cette forme de zoom est protégé, en les copiant, le risque est grand aux USA de se faire condamner. Samsung le savait et Jobs avait assez dit qu'il engagerait une "guerre thermonucléaire" et dépenserait jusqu'à son dernier dollar pour poursuivre les copieurs (c'était initialement contre Google au sujet d'Android).

Apple avait bien déposé un brevet en 2006 sur les gestes à plusieurs doigts sur un écran multi-touch (US 2007/0152984 A1).
Figure 1 du brevet Apple pour illustrer le zoom avec le pouce et l'index.
Dans la partie "Overview of Multi-Touch Input Operations", on peut lire "One or more fingers can be used to perform operations on one or more graphical objects presented in GUI, including but not limited to magnifying, zooming, expanding, minimizing, resizing, rotating, sliding, opening, closing, focusing,...  and any other operation can be performed on a graphical object. In some embodiments, the gestures initiate operations that are related to the gesture in an intuitive manner. For example, a user can place an index figure and thumb on the sides, edges or corners of the graphical object and perform a pinching or anti-pinching gesture by moving the index figure and thumb together or apart, respectively. The operation initiated by such a gesture results in the dimensions of the graphical object changing. In some embodiments, a pinching gesture will cause the size of the graphical object to decrease in the dimension being pinched. In some embodiments, a pinching gesture will cause the size of the graphical object to decrease proportionally in all dimensions.  In some embodiments, an anti-pinching movement or de-pinching movement will cause the size of the graphical object to increase in the dimension being anti-pinched...".
Si le brevet envisage de faire toutes les opérations possibles sur un objet graphique avec des gestes à plusieurs doigts. C'est l'opération zoomer-dézoomer qui est pris comme exemple, et le moins qu'on puisse dire, c'est qu'ils ont envisagé pas mal de réalisations de cette commande (sur une dimension, toutes les dimensions, proportionnelle ou pas...).

Apple avait donc bien breveté le pinch (pince) pour zoomer sur une petite surface multi-touch. Vu ce qu'est la loi américaine sur les brevets, ce n'est pas étonnant que Samsung soit condamné pour avoir repris dans ses produits, concurrents de l'iPhone, exactement le même geste que celui décrit avec précision dans le brevet Apple.
Je ne dis pas que c'est normal ou bien fait pour Samsung, mais seulement que le verdict n'est pas surprenant... surtout si on considère que le zoom n'était qu'un exemple de copie délibérée reprochée à Samsung (il y avait aussi la forme des icônes ou le rebond en fin de page).

Pour revenir à Picasso, Samsung en copiant quelques idées reste tout de même un bon artiste et on ne peut qu'espérer qu'il devienne un grand, et qu'il nous propose de futur produits vraiment innovants.
Je crois que Samsung en a les moyens (financiers et technologiques) et je pense même que la pomme risque un jour ou l'autre de se faire croquer par le tigre coréen.