2010

 

UBIKIS / UCBL - ISTIL

 

Groupe de Veille Technologique

 

 

 

Les Interfaces Mobiles Innovantes

-

[LIVRE BLANC]

 

 

Synthèse des travaux de recherche et d’étude du domaine des interfaces mobiles innovantes pour la société Ubikis au sein de l’Université Lyon 1.

 


 

Table des matières

Synthèse de sujet 5

Tactile et Multitouch_ 6

I.       Matériel portable tactile_ 6

1.      Ecrans de Pixel QI 6

2.      Adobe. 7

3.      Samsung. 7

II.      Les claviers haptiques 7

1.      Apple. 8

III.    Matériel non portable tactile_ 9

1.      La recherche Internet en MultiTouch avec la TruthTable. 9

2.      HP TouchSmart. 10

IV.    Qu’est-ce que permettra le Multitouch_ 10

1.      Brevets Apple. 11

2.      10/GUI 12

V.     Sociétés 15

1.      Immersion. 15

2.      After-Mouse.com.. 15

VI.    Vision du futur dans ce domaine_ 16

1.      Dans 6mois. 16

2.      Dans 1 an. 16

3.      Dans plusieurs années. 16

VII.   Conclusion_ 17

Les entrées 18

I.       Le Project Natal 19

II.      Microsoft Surface, iTable et alternatives 21

III.    Ondes cérébrales et interface neuronale directe_ 22

Disparition de l’ordinateur 26

I.       Disparition de l’ordinateur 28

II.      Ordinateurs de demain_ 30

III.    Le Sous-ordinateur personnel 30

IV.    La loi de Moore_ 30

V.     L'ordinateur du futur ?_ 32

La visualisation d’informations 34

I.       Les dispositifs de visualisations 34

1.      Historique. 34

2.      Révolution en marche : 35

3.      Les visualisations de demain : 39

II.      Les interfaces logicielles 40

1.      Contexte : 40

2.      Les évolutions des interfaces graphiques : 41

3.      Les études : 43

4.      Vers l’apparition d’une nouvelle interface utilisateur : 45

5.      Pas d’interfaces naturelles dans le milieu professionnel ?. 46

6.      Et le web dans tout ça ?. 47

III.    La réalité augmentée_ 47

1.      Contexte. 47

2.      Quels sont les acteurs du marché ?. 48

3.      Quelques chiffres : 49

IV.    Les possibilités offertes : 49

1.      L’e-commerce : 49

2.      Les loisirs : 50

3.      Culturel : 51

4.      Industriel : 52

V.     Les enjeux à venir 52

1.      Des verrous techniques ?. 52

2.      Les perspectives futures : 53

La représentation d’une grande quantité d’informations 61

I.       L’organisation des données 61

1.      Le paradigme hiérarchique. 61

2.      La problématique de l’extraction de données. 62

II.      Les arbres 64

1.      Des outils très utilisés, mais complexes à exploiter correctement. 64

2.      Mise en corrélation des différentes extractions de données et abolition des hiérarchies par arbres  65

III.    Les représentations des hiérarchies de données 66

1.      Les « nouveaux » concepts d’interface. 66

2.      Le zoom sémantique, une solution d’ergonomie ?. 68

IV.    Exemple d’utilisation de ces concepts 70

Pistes de création d’entreprise_ 73

I.       Développement de matériel pliable_ 73

II.      Nouvelle interface multitouch_ 73

Conclusion_ 74

 


Synthèse de sujet

 

Le sujet prend place dans le cadre de l'évolution rapide des technologies mobiles chez le grand public et les industriels. Le contexte général de la proposition est celui de l'interaction entre les utilisateurs et les appareils mobiles, et des interfaces hommes-machine impliquées.

On s'intéressera notamment aux évolutions des terminaux "classiques" (terminaux graphiques à écrans) et aux nouvelles technologies (également réalité augmentée)

Il s'agit d'avoir une vue la plus claire possible sur l'innovation dans le monde de la mobilité.

Afin de comprendre les enjeux au niveau du stockage des données, on étudiera aussi  les adaptations au niveau des interfaces pour représenter ces données.

Il sera aussi question de la disparition des ordinateurs, l’ubiquité dont ils font petit à petit preuve.

 


Tactile et Multitouch

                Interagir avec la machine de manière la plus spontanée possible a toujours été un des buts des recherches en informatique. A l’heure actuelle, c’est le tactile qui permet de répondre aux mieux à cette spontanéité, et puis surtout maintenant avec le développement du multitouch de partout.

                À l’instar du clavier et de la souris, le multitouch sert à envoyer des informations de contrôles à un logiciel. Sauf qu’on ne «clique» pas. On «touche», on «zoom», on «tourne», on «déplace» en faisant des gestes… C’est donc une interaction plus naturelle. Le niveau d’interaction possible du multitouch va bien au-delà des systèmes d’interactions existant jusqu’à ce jour. C’est le démarrage d’une nouvelle ère technologique forte et on commence seulement à entrevoir le potentiel d’application possible. Place à l’imagination et à l’invention!

                Dans cette partie nous allons donc voir les appareils tactiles que nous utiliserons dans un futur proche ou lointain, à petite ou à grande échelle.

 

       I.            Matériel portable tactile

                Le grand avantage du tactile est sans aucune doute le fait de tout avoir sur un écran et de pouvoir tout contrôler à partir de celui-ci, finit donc les boutons, les claviers, les boules, tous ces objets qui prennent de la place. C’est donc pour cela que le tactile correspond très bien aux machines portables telles que les téléphones ou les tablettes tactiles.

                En ce qui concerne les tablettes tactiles, c’est vraiment LE secteur qui va littéralement « exploser » en 2010 avec notamment la sortie prochaine de l’iPad qui va s’en aucun doute dominer le marché français. La sortie de l’iPad en France fait beaucoup parler d’elle, c’est pour cela que nous ne nous attarderons pas plus sur cette tablette que déjà tout le monde connaît, nous essaierons de voir les tablettes susceptibles de concurrencer celle de la marque à la pomme.

 

1.      Écrans de Pixel QI

                La technologie 3QI pour écrans de Pixel Qi est une véritable nouveauté dans le monde des écrans. Au point que l’IEEE (Institute of Electrical and Electronics Engineers) lui a décerné le prix de la technologie émergente au plus grand potentiel de succès financier. Un type d’écran qui pourrait dynamiser le secteur ebooks, mais qui se fait attendre. Le concept est simple : un écran, 2 modes d’utilisation. L’idée des écrans Pixel QI est de proposer de passer à volonté d’un affichage rétroéclairé (celui habituel des écrans LCD) à un écran non rétroéclairé (identique au e-paper, mais capable dé gérer couleur et animation). Cette idée est réellement révolutionnaire, et d’ailleurs on attend beaucoup de la tablette Adam de Notion Ink qui sera la première à embarquer pour le grand public la technologie Pixel Qi.

                Certains considèrent d’ailleurs que cette technologie fait de la tablette Adam le principal concurrent de l’iPad de par son écran mieux adapté à la lecture et à l’extérieur, tout en étant aussi capable que l’écran LCD de l’iPad pour le reste. Mais elle pourra aussi s’embarquer dans des ordinateurs portables, netbooks et peut-être même des écrans plus petits.

 

2.      Adobe

                Le grand défaut de l’iPad est qu’il ne peut et ne pourra certainement pas supporter le Flash. Suite à la découverte sur le stand d’Adobe à la Web 2.0 Expo de San Francisco d’un prototype de tablette sous Android et avec un écran multitouch, une rumeur fait état qu’Adobe sorte sa propre tablette tactile qui bien entendu pourrait faire fonctionner sans aucun problème les applications sous Air ou Flash.

 

3.      Samsung

                Samsung a essayé de sortir sa gamme de tablettes, avec une innovation au niveau du clavier puisque ce dernier est scindé en deux (voir photo ci-dessous) avec des toutes petites touches. Cette tablette n’a pas eu le succès escompté, car il semble que les gens ne soient pas encore prêts à se séparer de leurs habitudes notamment avec leur clavier azerty, de plus il faut un temps d’adaptation afin de s’habituer à l’ergonomie de cette tablette.

 

    II.            Les claviers haptiques

                La grande différence entre un clavier tactile et un clavier « normal » réside dans le fait que sur un clavier dit normal, lorsque qu’une touche est pressée, l’utilisateur à une sorte de retour, il sent que la touche a été pressée comparé au tactile ou l’utilisateur n’a aucun retour. Ceci désigne le domaine de « l’haptique ». Par analogie avec acoustique ou optique, la technologie haptique désigne le toucher, ou plutôt les phénomènes de perception liés au toucher. Les constructeurs de téléphones portables qui pour la plupart se sont lancés dans les mobiles à écran tactile, ont voulu se démarquer en intégrant une interface haptique à retour de force sur leurs appareils. Ainsi, lorsqu'un utilisateur va glisser son doigt sur une icône située sur l'écran, il va ressentir une légère vibration provenant du mobile, vibration censée lui retranscrire l'impression de pression sur un bouton. Cela permet d'ajouter du réalisme et du relief aux mobiles qui se pilotent entièrement à l'écran. Mais les vibrations n’apportent pas un même retour que lorsque l’on tape sur une touche, c’est dans ce domaine qu’il faut progresser, beaucoup de recherches sont en cours, notamment Apple qui commence à déposer des brevets à ce sujet (voir partie suivante), mais encore rien de concret n’a été trouvé. Arriverons-nous un jour à inventer un écran tactile qui donne la même perception qu’un clavier à boutons ?

 

1.      Apple

                Certains des brevets récemment déposés par Apple pourraient bien gâcher la surprise sur la manière dont on interagit avec la tablette Apple. Selon les spéculations d’Apple Insider, la demande de brevet pourrait impliquer que nous aurons un gadget multitouch avec retour tactile.

                Apparemment cette série de dépôts de brevets concerne une surface dynamique qui peut « créer des reliefs physiques que l’utilisateur peut sentir lorsqu’il est en mode clavier ». En théorie, ce type de surface permettrait de mieux orienter les doigts sur l’écran tactile pour saisir du texte, mais sans interférer avec les autres actions. C’est un autre point de spéculation sur les évolutions possibles de l’iPad que nous pourrons un jour glisser dans notre sac.

 

 III.            Matériel non portable tactile

                Le tactile permet d’avoir pour seul outil de travail une table ! En effet, les recherches sont allées dans ce sens-là puisque beaucoup de dalles tactiles ont était inventées, et la plupart d’entre elles sont munis d’un grand écran multitouch seulement. Les dalles tactiles remplacent le bureau habituel composé d’un écran, d’une unité centrale, d’un clavier et d’une souris. Elles permettent de travailler et d’interagir directement avec cette table.

 

                Le Microsoft Surface est déjà sorti mais n’est pas encore commercialisé à grande échelle… Surement parce qu’il ne permet pas de remplacer un ordinateur classique, une personne ne pouvant pas passer sa journée à travailler sur une table, car elle se fatiguerait beaucoup trop vite. Pour le moment ces tables tactiles se révèlent être un bon gadget dans une maison. Dans le monde de l’entreprise, ces dernières sont pratiques pour les travaux à plusieurs, lors d’une réunion par exemple. L’avantage est que tout le monde peut travailler en même temps sur une plate-forme commune, en effet chaque personne étant à un endroit différent de la table peut faire ce qu’il veut de son côté, en faisant apparaitre notamment un clavier que pour lui.

                Dans cette partie nous verrons les différentes tables tactiles que l’ont va avoir dans le futur, mais nous verrons qu’à cause de certains problèmes d’ergonomie, ces tables ne remplaceront jamais un vrai bureau de travail actuel.

 

1.      La recherche Internet en MultiTouch avec la TruthTable

                La TruthTable est une table MultiTouch qui permet d’effectuer des recherches Internet en utilisant le web social et qui présente la particularité de faire apparaitre les liens et les associations entre les différents mots clés. Les résultats sont affichés sous forme d’images et l’interface est manipulable entièrement aux doigts.

 

2.      HP TouchSmart

                Il y a aussi les TouchSmart qui sont à mi-chemin entre les tables et les tablettes tactiles, il s’agit ni plus ni moins d’un ordinateur de bureau avec un écran multitouch, le gros problème étant encore que l’on se fatigue vite avec en devant lever continuellement le bras, c’est pour cela que le multitouch reste encore une sorte de gadget sur ces PC.

 

  IV.            Qu’est-ce que permettra le Multitouch

                Actuellement le multitouch est utilisé qu’à une infime partie par rapport à ce qu’il pourrait offrir. En effet, il permet actuellement de zoomer-dézoomer une image, de déplacer une fenêtre et de quelques autres choses, mais rien le rendant indispensable. Et si nous imaginions le multitouch totalement différemment ? Et si un nouveau langage de gestes se concrétisait permettant de faire des actions à une vitesse sans précédent !

 

1.      Brevets Apple

                Apple a publié un brevet concernant les gestes possibles en multitouch avec une seule main. L’idée est d’associer les fonctions classiques de l’interface (copier, coller,…) avec un certain nombre de gestes. On y trouve ainsi 41 gestes différents.

                La difficulté est alors de différencier les gestes « simples » (déplacer le pointeur) des gestes complexes. Ceux qui ont déjà utilisé un touchpad sur un mac, ont surement découvert des gestes par inadvertance. Vous laissez trainer le pouce sur le bord du touchpad et vous vous retrouvez à zoomer ou à faire tourner les photos. Le brevet présente donc un système de filtrage relativement complexe, en fonction de la position, la vitesse et de l’écartement des doigts. Ce filtre ayant pour but de supprimer les actions parasites.

                Il est intéressant de voir comment les concepteurs organisent les gestes :

·         Les actions les plus courantes (copier, coller) restent des gestes simples avec deux doigts.

·         Les actions les moins fréquentes (imprimer, zoom) nécessitent 4 ou 5 doigts ou nécessitent d’écarter les doigts.

·         Les commandes inverses (ouvrir/fermer, couper/coller) présentent des gestes inverses : rapprocher/écarter les doigts, glisser vers la droite/gauche.

                Nous pouvons nous poser la question : est-ce que c’est pertinent d’un point de vue utilisateur ? Le nombre de gestes paraît tout de même trop important pour être retenu pour un usage régulier. Les gestes sont sans doute trop fins pour être réalisés sans erreurs à moins d’un entrainement important ou d’une calibration fine en fonction des mains de l’utilisateur. Pour un usage spécifique, par exemple une table de montage vidéo multitouch, cela peut être un mode d’interaction (complémentaire) intéressant, notamment en cas de collaboration. Maintenant ce n’est qu’un brevet logiciel à l’heure actuelle, donc il est toujours préférable d’en mettre trop que pas assez. Cela empêchera la concurrence d’avancer sur le même terrain.

2.      10/GUI

                10/GUI est un concept révolutionnaire de pavé tactile géant multitouch qui viendrait remplacer la souris. Remplacer la souris ? Oui tout à fait, car il faut dire qu’en presque 40 ans la souris n’a pas beaucoup évolué, tout au plus lui a-t-on retiré son fil, sa boule et lui a-t-on rajouté quelques boutons et une molette. Mais avec le succès de l’iPhone et la généralisation prochaine des terminaux multitouch, cette dernière pourrait bien se retrouver en pré-retraite. À moins qu’Apple et Microsoft ne parviennent à lui donner une seconde vie.

                Un certain Clayton Miller a décidé de révolutionner notre façon d’interagir avec les ordinateurs en proposant ce concept remarquable : 10/GUI. La base de sa réflexion est de dire que les terminaux multitouch qui vont arriver sur le marché posent des problèmes ergonomiques en créant des tensions au niveau du bras (pour un écran sur pied) ou du cou (pour un touchbook) :

                Son approche est de remplacer la souris par un gigantesque pavé tactile multitouch. Cette idée de grande zone tactile n’est pas neuve puisqu’on la retrouve notamment sur les palettes graphiques Bamboo de Wacom ou sur l’OLPC : petite différence par rapport aux autres pavés, il propose de remplacer les deux boutons par deux zones de chaque côté.

                Mais sa réflexion ne s’arrête pas là, car il propose également d’adapter l’écran de travail (le bureau) à cette nouvelle interface en abandonnant le système de fenêtres multiples qui flottent au profit de fenêtre alignée dans une grande frise à mi-chemin entre l’Exposé de Mac OS et le alt+tab : un système de frise baptisée Con10uum. Le bureau ressemble donc à un bureau « traditionnel » avec ses widgets, mais la grande nouveauté vient de l’affichage des doigts à l’aide d’un senseur de proximité qui détecte ces derniers lorsqu’ils sont justes au-dessus du pavé. Un clic du doigt sur la zone tactile à droite fait apparaitre le menu des applications et des services. En cliquant sur la zone de gauche, vous accédez aux fonctions de l’application active. La manipulation des fenêtres et objets se fait à l’aide de combinaisons : deux doigts pour manipuler un objet dans une application, trois doigts pour basculer d’une application à une autre et quatre doigts pour minimiser les fenêtres d’application et accéder à la fameuse frise.

                En pinçant vos doigts, vous réduisez la taille des fenêtres et pouvez accéder à une vue d’ensemble où les fenêtres sont regroupées par application (si plusieurs documents sont ouverts en même temps) et sont illustrées avec des pictos.

                Même si cela peut paraitre déroutant d’abandonner la souris, ce périphérique peut être considéré comme un pavé tactile de nouvelle génération, voici donc à quoi ressemblerait un bureau :

                Même si ce produit n’existe que sous forme conceptuelle, il faut bien admettre que le concept est très poussé qui pourrait aller de pair avec les bureaux 3D et pourquoi pas les interfaces en relief. Ce concept pourrait préfigurer ce qu’Apple risque bien de sortir un jour avec sa future MacTablet.

 

 

     V.             Sociétés

                Nous avons pu voir tout au long de cet axe les principales sociétés impliquées dans le tactile et multitouch (Apple, HP, Samsung, Microsoft…), dans cette partie nous en étudierons deux de plus qui peuvent jouer un rôle important dans l’avenir.

1.      Immersion

                Immersion est le spécialiste européen des solutions de simulation visuelle et de réalité virtuelle clés en main sur mesure. Immersion conçoit des nouvelles solutions et méthodes d’interaction et de visualisation multimodales pour les futurs environnements virtuels, et réalise pour ses clients des salles de visualisation stéréoscopique, des murs d’image à très haute densité de pixels, des environnements immersifs multifaces et des simulateurs visuels 3D temps réel. L’entreprise se distingue par l’accompagnement des clients tout au long de la vie des projets ; elle compte parmi ses références des grands noms tels que LVMH, PSA Peugeot Citroën, Renault, le CEA, IRIT, le LABRI, l’armée de l’air française, EADS ASTRIUM, Airbus, CS et Eurocopter. Immersion participe aux principaux projets de recherche européens sur la réalité virtuelle et sur la réalité augmentée.

                Son produit phare est l’Holocubtile, un produit permettant de faire apparaître un objet 3D entre les mains de l’utilisateur dans son reflet.

 

2.      After-Mouse.com

                After-Mouse.com avec son slogan « Yes we touch » est le leader en développement d'applications tactiles sur mesure. After-Mouse.com a été créé en janvier 2009 par Nicolas Chaillan. Son expertise s'adresse à tous les secteurs d'activités et propose des solutions pour tous les supports (tables tactiles, écrans tactiles, murs tactiles...). After-Mouse.com se compose des meilleurs experts internationaux en matière de développement, de design 2D/3D, d'ergonomie de sécurité applicative et de communication. Partenaire officiel de Microsoft (BizSpark, idEES et Microsoft Surface™ Strategic Partner) After-Mouse.com bénéficie d'une expertise internationalement reconnue. Soutenue par un budget conséquent, sa cellule de Recherche et Développement lui permet de maintenir son excellence, de se doter toujours des technologies les plus à la pointe, en lui conférant un savoir-faire inégalé. After-Mouse.com est présente dans toute l'Europe (France, Allemagne, Pays-Bas, Royaume-Uni, Suisse, Italie, Espagne) mais aussi aux États-Unis (New York, Chicago, Los Angeles), au Canada et à Dubai.

 

  VI.            Vision du futur dans ce domaine

1.      Dans 6mois

                Dans 6 mois, le grand changement dans ce niveau-là résidera du fait de l’arrivée de l’iPad et de ses différents concurrents, le marché des tablettes tactiles sera en plein boom. Le nombre de tablettes va quadrupler en 2010. Apple dominera encore le marché du multitouch avec ses produits IPod, IPad et IPhone. Au niveau des entreprises, certaines auront investi dans des solutions tactiles, mais resteront encore réticentes pour la plupart dans l’idée de passer tout au tactile.

 

2.      Dans 1 an

                Morgan Stanley, auteur du « Mobile Internet Report », estime que le nombre de tablettes distribuées triplera en 2011. Le tactile continuera à s’installer de partout, que ce soit de la cuisine en allant jusqu’à la buanderie! La plupart des écrans vendus seront 3D. Pourquoi ne pas se lancer dans la création d’un logiciel utilisant au maximum la 3D et ne pas laisser cette fonctionnalité que pour le cinéma ?

 

3.      Dans plusieurs années

                Le tactile sera de partout : dans les magasins, dans la maison, dans l’entreprise, en décoration… Les entreprises investiront beaucoup là-dedans, elles se paieront des salles de réunion innovantes, tous les ordinateurs seront tactiles. Cependant, il faudra encore plusieurs années afin de voir disparaitre le clavier et la souris (s’ils disparaissent…), le tactile viendra en complément, mais n’arrivera pas encore à les remplacer, principalement dû au fait de fatigue soit du bras soit du cou. Au niveau des tablettes tactiles, en 2013, on estime à près de 50 millions le nombre de ces dernières qui seront commercialisées.

 

VII.             Conclusion

                Le multitouch est vraiment un outil dont on commence juste à percevoir ce qu’il peut permettre, il reste encore beaucoup de travail à faire notamment au niveau multimodal, très peu de logiciels utilisent par exemple voix+tactile, ou encore clavier+tactile. Beaucoup de prototypes sortent, ce sont pour beaucoup des outils destinés à faciliter le travail en groupe, des outils pour un meilleur confort en réunion… mais pas encore d’outils révolutionnaires qui puissent devenir le poste de travail de demain. Aujourd’hui toutes les surfaces peuvent devenir tactiles, Microsoft arrive avec un nouveau concept très intéressant à permettre au bras de l’utilisateur de devenir une surface tactile en  analysant la propagation des ondes de choc, cette idée pourrait enfin nous permettre de voir et d’interagir avec des informations sans avoir à sortir une machine de notre poche.


Les entrées

 

Un constat peut être porté sur les dernières décennies : dans le domaine des entrées, les avancées sont faites et destinées, pour la plupart, au domaine du loisir. En effet, bien que certaines technologies soient issues de secteurs bien différents (par exemple l’accéléromètre de la WiiMote), leurs utilisations couplées à d’autres technologies en font un périphérique d’entrée innovant. Par la suite, ces technologies sont portées dans d’autres domaines pour des utilisations parfois totalement décalées par rapport à leur but initial. On peut prendre pour exemple la manette de Xbox 360 qui est aussi utilisée pour le contrôle des robots-démineurs de l’armée américaine.

Pour la majorité, les entrées dans le domaine du loisir ne sont pas des entrées textuelles. Nous avons expliqué lors du comité de pilotage que les entrées textuelles évoluent très peu et qu’il y a très peu de chances pour que le clavier soit révolutionné dans les années à venir. Il faut donc se pencher plutôt sur des entrées permettant un contrôle non textuel.


 

       I.            Le Project Natal

 

                En matière de futures innovations dans le domaine du loisir, on remarquera l’arrivée prochaine du « Project Natal » de Microsoft.

 

Ce projet, toujours en cours d’élaboration, a pour ambitieux but de jouer à un jeu vidéo sans l’utilisation d’une mannette.

 

D’un point de vu technologie, le Project Natal comporte un détecteur de profondeur. Ce détecteur se compose d'un projecteur infrarouge combiné avec un détecteur CMOS monochrome, et permet de retranscrire une vue 3D dans n'importe quelles conditions ambiantes claires.

À partir de cette technologie, de nombreux softwares sont développés, comme la reconnaissance gestuelle, la reconnaissance faciale ou la reconnaissance vocale.

 

                Bien qu’utilisé dans le domaine du loisir, ce contrôleur est facilement imaginable en milieu professionnel, avec des applications développées pour. Il faudra néanmoins un certain temps avant de le voir en usage.

Cependant, Redmond travaille actuellement sur un portage de cette technologie pour le futur Windows. On peut donc supposer ici qu’une adaptation d’une technologie développée pour le loisir sera, dans quelques mois ou années, utilisable pour une utilisation professionnelle.

 

La société StarNav, une société spécialisée dans les besoins des personnes handicapées, a procédé, lors du TechDays 2010, à un test de leur logiciel Head Pilot couplé à la technologie du Project Natal. Le logiciel Head Pilot est destiné à l’utilisation d’un ordinateur (bouger le curseur et utiliser le clavier) uniquement par mouvements de la tête. Microsoft mise donc  sur cette technologie qui, d’après elle, devrait à l’avenir remplacer la souris physique.

Ce projet est donc à surveiller de prêt, car il peut rapidement devenir une révolution si certains points sont travaillés (sensibilité du contrôleur, latence …).


 

    II.            Microsoft Surface, iTable et alternatives

 

                Le principe de la table Microsoft Surface (et de sa concurrente, l’iTable) a déjà été abordé dans le passé, il n’est donc pas nécessaire de réécrire les caractéristiques de ce produit. Il est tout de même important de noter que ce marché commence à intéresser  beaucoup de grands constructeurs.

 

Le frein à l’expansion de cette technologie est son prix, très élevé (environ 12 000$ pour une Microsoft Surface). Pourtant, des solutions alternatives sont sur le point d’émerger un peu partout. La DIY Multitouch table permettra d’obtenir les mêmes fonctionnalités que l’iTable et la Microsoft Table, mais à un prix beaucoup plus abordable. Un projet est même basé sur une structure Linux avec Multi-Pointer X (l’interface multitouch de Linux).

Ce produit présente une innovation de rupture. Beaucoup d’entreprises misent sur ce marché. Lorsque le marché sera en croissance et que le taux d’équipement grandira,  des innovations logicielles seront demandées. De plus, la technologie du multipoint étant nouvelle, elle ne peut que s’améliorer dans les années à venir. Il faudra donc séduire le plus grand nombre de clients en aménageant l’offre logicielle initiale.

Miser sur cette technologie est alors un pari, certes ambitieux actuellement, mais qui pourrait vite devenir lucratif.

 

 

 

 III.            Ondes cérébrales et interface neuronale directe

 

Dernièrement, la maitrise des ondes cérébrales dans le but de contrôler un appareil a vu le jour. Certaines entreprises, telles que Mattel, proposent des jeux basés sur cette technologie.

Parmi ces jeux, on retiendra le tout récent « MindFlex ».

 

 

 

Le principe : un casque muni d’électrodes analyse les ondes cérébrales de l’utilisateur. Un souffleur maintien une balle dans les airs. Un parcours d’obstacles est installé sur le plateau de jeu. Le but du jeu est de faire traverser se parcours à la balle. La balle ira plus ou moins haut suivant la concentration du joueur : plus le joueur se concentre, plus les ondes cérébrales seront élevées et plus la balle ira haut. À l’inverse, pour que la balle redescende, il faudra se relaxer.

 

 

 

                Toujours dans le loisir, la société Australo-Américaine  Emotiv Systems propose le projet « Epoc »à 299$. Ce système permet de jouer à un jeu vidéo ou d’utiliser un système électronique par la pensée.

Ce dispositif nécessite seulement un ordinateur et le logiciel nécessaire pour être utilisé.

Il est intéressant de noter que ce système d’entrée, bien qu’encore à ses débuts, possèdent déjà des concurrents directs tel que le casque « NIA » (pour Neural Impulse Actuator) de chez OCZ.

 

 

 

Cette technologie est aussi utilisée dans le domaine médical, pour aider les personnes handicapées à utiliser un ordinateur. Ainsi, des projets tels que « BrainGate » de Cyberkinetics ont vu le jour et sont encore en phase d’amélioration. Le principe : des implants neuronaux permettant de convertir les intentions de l’utilisateur en commandes interprétées par la machine. Une puce munie d’électrodes réceptionne les signatures électromagnétiques des neurones dans certaines régions du cerveau (telle que la région permettant le contrôle des mouvements des bras).

« BrainGate » reste néanmoins encore peu utilisé, et nécessite un lourd matériel à transporter pour le traitement des informations neuronales.

 

 

 

 

Il est important de noter que toutes ces technologies tendent vers une dématérialisation des périphériques nécessitant l’action d’un des membres du corps.

On remarque que ces technologies ne sont pas encore des références quant aux systèmes d’entrées. Pourtant, une très bonne diffusion de la part des fournisseurs et de nouvelles idées de la part des développeurs d’applications pourraient permettre à ces technologies de devenir très vite de nouvelles références. Des logiciels tels que la navigation rapide entre différentes données par exemple seraient nécessaires.

Au final, on peut projeter que, tout comme dans le passé, les technologies du loisir seront utilisées dans un futur proche pour le milieu professionnel, ou du moins adaptées à ce milieu.


Disparition de l’ordinateur

 

Allons-nous être entourés par des ordinateurs d'ici 2015? Oui, mais nous n'allons pas le savoir, dit Bill Gates, président Microsoft et architecte logiciel en chef

quelques années à partir de maintenant, le système de divertissement maison moyenne peut ne pas paraître très différente de celle d'aujourd'hui. Mais il sera probablement avoir une connexion Internet qui lui permet de télécharger et jouer de la musique et la vidéo numériques, les illustrations d'album d'affichage et les titres des chansons à la télévision, et même d'interrompre notre écoute si un message important arrive. Il aura un processeur central, de stockage sur disque, le matériel graphique et une sorte d'interface utilisateur intuitive. Ajouter une souris sans fil et un clavier, et ce système de divertissement à domicile va commencer la recherche un peu comme un ordinateur personnel. Les gens achètent et utilisent ces systèmes en grand nombre. Mais ils ne seront Probablement pas considérés comme des ordinateurs.

Selon Gartner Dataquest, un cabinet de recherche américain, l'industrie informatique mondiale a livré son milliardième d'un PC en 2002, et un autre milliard de plus devraient être construites au cours des six prochaines années. La quasi-totalité de la première ont été milliards de bureau et ordinateurs portables traditionnels, mais le second milliard sera très différent. Ils seront optimisés pour les choses que les gens veulent réellement faire avec eux - nous aurons tablet PC-entreprises pour prendre des notes lors de réunions ou de lecture d'e-mail sur le canapé, les PC de divertissement :  jouer de la musique et des films sur le salon la télévision et les ordinateurs de poche qui n’empêchent les gens de se connecter et s’informer où qu'ils se trouvent.

Ajoutez à cela l'explosion du nombre d'ordinateurs embarqués - semblables à celle constatée dans les téléphones mobiles, les pompes à essence et de détail des systèmes de point de vente - qui approchent rapidement de la puissance et la complexité des PC de bureau. Sur une estimation, la population des États-Unis ont déjà interagit avec les systèmes embarqués environ 150 tous les jours, qu'ils le sachent ou non. Ces systèmes - qui consomment jusqu'à 90 pour cent de la production des microprocesseurs d'aujourd'hui - sera inévitablement plus sur les caractéristiques de type PC, et sera en mesure de communiquer de façon transparente avec leurs homologues PC traditionnels. Ils seront également étonnamment omniprésents. En 2001, selon la « Semiconductor Industry Association », l'industrie de la micro-puce monde a produit environ 60 millions de transistors pour chaque homme, femme et enfant sur la terre. Ce nombre augmentera d'un milliard d'ici à 2020.

Tout au plus en même temps, les PC à usage général tel que nous le connaissons aujourd'hui continuera à jouer un rôle important - et de plus en plus central - rôle dans la vie de la plupart des peuples, mais il sera au centre d'un large éventail de dispositifs intelligents qui personnes ne veulent considérer comme des "ordinateurs" aujourd'hui.

Ce scénario est en contraste frappant avec les ordinateurs d'un peu il ya quelques années - retour à l'ère pré-Internet - qui était encore essentiellement passive appareils qui était assis dans le coin de la tanière ou le salon. À l'époque, les gens utilisaient leur ordinateur pour un peu plus que d'écrire des lettres et des documents, de jeu ou dans la gestion de leurs finances de la famille. Comme un outil de communication qu'ils ont été en grande partie inefficaces, sauf pour quelques réseaux e-mail primitive et des systèmes de babillard électronique. Le PC n'était pas encore devenue essentielle à la vie de la plupart des peuples - pas dans le sens que la télévision, le téléphone ou l'automobile sont maintenant.

Mais aujourd'hui, nous sommes dans les premières années de la décennie véritablement numérique, dans lequel l'intelligence de l'ordinateur est de trouver sa place dans toutes sortes de dispositifs, en les transformant des appareils passifs dans des outils beaucoup plus important et indispensable pour la vie quotidienne. Beaucoup de technologies de base de la puissance informatique de traitement, la capacité de stockage, les capacités graphiques et de connectivité réseau - sont tous en continuant à progresser à un rythme étonnant.

Les ordinateurs sont de plus en plus petits, plus puissants, moins avides de pouvoir et beaucoup moins coûteux, ce qui rend plus facile de construire la puissance de calcul et de la connectivité dans les appareils tous les jours. Et des interfaces utilisateurs - y compris le discours et la reconnaissance de l'écriture - sont de plus en plus efficaces et plus facile à utiliser.

Puis ça devient intéressant, comme les gens à trouver plus de façons d'intégrer ces peu coûteux, dispositifs flexibles et personnalisables infiniment dans leur vie, les ordinateurs eux-mêmes seront progressivement «disparaître» dans le tissu de notre vie. Nous sommes encore loin d'un monde plein de machines intelligentes désincarnée, mais l'expérience informatique de la décennie à venir sera donc transparente et intuitive qui - de plus en plus - nous à peine s'en apercevoir. Dans le même temps, l'informatique va devenir assez répandue que nous tenons pour acquis - la confiance aujourd'hui comme la plupart des gens dans le monde développé du service téléphonique.

L'omniprésence et à proximité - l'invisibilité de l'informatique sera aidé par les nouvelles technologies comme bon marché, écrans flexibles, MEMs ongle entreprises (systèmes micro-électromécaniques) puces capables de stocker des téraoctets de données, ou inductif ordinateurs alimentés qui comptent sur la chaleur et le mouvement de leur environnement pour fonctionner sans piles.

L'économie de l'informatique sera également apporter des changements. Réduire les coûts, il sera facile pour les fabricants de matériel électronique pour y inclure des renseignements tels que PC-et la connectivité, même dans les dispositifs les plus banales. Finalement, la puissance de calcul lui-même pourrait devenir presque trop bon marché pour mètre.

Tout cela conduira à un changement fondamental dans la façon dont nous percevons les ordinateurs. En utilisant l'un deviendra comme l'utilisation de l'électricité lorsque vous allumez un feu. Les ordinateurs, comme l'électricité, jouera un rôle dans presque tout ce que vous faites, mais lui-même le calcul ne sera plus une expérience discrète. Nous allons être axée sur ce que nous pouvons faire avec un ordinateur, pas sur les appareils eux-mêmes. Ils seront tout autour de nous, essentielle pour presque toutes les parties de nos vies, mais ils seront effectivement «disparu».

       I.            Disparition de l’ordinateur

"Les technologies les plus profondes sont celles qui disparaissent. Elles se fondent dans le tissu de la vie quotidienne jusqu'à ce qu'ils se confondent avec elle. »Cette déclaration de Mark Weiser bien connu" l'ordinateur pour le XXIe siècle "(Scientific American, 1991, pp. 66-75) a été un source d'inspiration pour beaucoup et est toujours une importante ligne directrice pour le travail à l'initiative Smart avenir.

L'objectif de faire disparaître l'ordinateur peut survenir de différentes manières. Disparition peut prendre différentes formes telles que décrites par Streitz (2001):

·         Disparition physique se réfère à la miniaturisation des dispositifs et leur intégration dans d'autres objets usuels comme, par exemple, des vêtements, de sorte que vous ne les vois plus.

·         Disparition mentale fait référence à la situation que les objets peuvent encore être importants, mais ils ne sont pas perçus comme des ordinateurs parce que les gens à discerner que, par exemple, des murs ou des tableaux interactifs. Ainsi, la technologie évolue mentalement dans l'arrière-plan.

Cela soulève quelques questions fondamentales: Comment pouvons-nous concevoir l'interaction homme-information et de communication homme-homme et la coopération en exploitant les affordances des objets existants dans notre environnement? Et, ce faisant, comment pouvons-nous exploiter le potentiel de support informatique en renforçant ces activités?

"Cela ressemble à un paradoxe, mais il deviendra bientôt réalité: La vitesse à laquelle les ordinateurs disparaissent sera égalé par la vitesse à laquelle technologies de l'information de plus en plus omniprésents dans notre environnement et de déterminer nos vies". Cette déclaration de Streitz et Nixon (2005) dans leur numéro spécial de "Communications de l'ACM» illustre comment les ordinateurs sont de plus en plus une partie importante de nos activités au jour le jour et permettra de déterminer un large éventail de contextes physiques et sociaux de notre avenir la vie.







 

    II.            Ordinateurs de demain

Aujourd'hui, les ordinateurs fonctionnent grâce aux transistors, les fils et de l'électricité. futurs ordinateurs pourraient utiliser des atomes, des fibres et de lumière. Personnellement, je ne donne pas un octet ce qui le fait marcher, tant qu'il fait le travail.

Mais supposons que vous n'êtes pas encore amer à partir d'un ordinateur portable de remplacement des dernières années. Vous pouvez arrêter de considérer ce que le monde pourrait être, si les ordinateurs de la taille des molécules deviennent une réalité. Ce sont les types d'ordinateurs pouvant être partout, mais jamais vu. Nano entreprises bio-ordinateurs qui pourraient cibler des zones spécifiques à l'intérieur de votre corps. Giant réseaux d'ordinateurs, dans vos vêtements, votre maison, votre voiture. Retranchés dans presque tous les aspects de nos vies et pourtant vous ne leur donne jamais une seule pensée.

Comprendre les théories sous-jacentes de ces technologies informatiques avenir n'est pas pour les humbles. Mes recherches dans les ordinateurs quantiques a été d'autant plus difficile après que j'ai appris que, compte tenu de son interférence constante, il est théoriquement possible ma belle-mère pourrait être dans deux endroits à la fois.

Si vous avez du cœur, de prendre un coup d'oeil sur les technologies les plus prometteuses nouvel ordinateur. Si non, oser imaginer la façon dont des milliards de minuscules, de puissants ordinateurs vont changer notre société.

·         Les ordinateurs quantiques

·         Ordinateurs optiques

·         Ordinateurs à ADN

 III.            Le Sous-ordinateur personnel

À l'avenir, le nombre d'ordinateurs petit mais puissant, vous rencontrez tous les jours se comptent par milliers, voire des millions. Vous ne les verrez pas, mais ils seront tout autour de vous. Votre interface personnelle à ce puissant réseau d'ordinateurs pourraient provenir d'un dispositif informatique unique qui est porté sur ou dans le corps.

En plus de fournir une 24 / 7 d'interface à la myriade d'ordinateurs et de capteurs que vous aurez accès à, comme un apprenti bonne, ce dispositif informatique viendrait à connaître vos préférences personnelles et parfois prendre des décisions en votre nom.

  IV.            La loi de Moore

La loi de Moore n'est pas strictement respectées une formule mathématique, mais une prédiction faite par Intel fondateur co-fondateur Gordon Moore en 1965.

Moore prédit que la technologie informatique serait augmentation de la valeur en même temps il serait la diminution du coût. Plus précisément, que les innovations dans la technologie permettrait de doubler le nombre de transistors dans un espace donné, chaque année, la vitesse de ces transistors et augmenterait les coûts de fabrication chuterait.

Un transistor ordinateur agit comme un interrupteur électronique de petite taille. Tout comme l'interrupteur sur le mur, un transistor n'a que deux états, Oui ou Non. Un ordinateur interprète ceci on / off Etat comme un 1 ou un 0. Mettez tout un tas de ces transistors ensemble et vous avez une puce d'ordinateur. L'unité centrale de traitement (CPU) à l'intérieur de votre ordinateur est probablement autour de 500 millions de transistors.

Diminution de taille du transistor permet non seulement des puces plus petites, mais plus rapide. L'un des avantages de l'emballage transistors rapprochement est que les impulsions électroniques prennent moins de temps pour Voyage entre les transistors. Cela peut augmenter la vitesse globale de la puce.

Pas tout le monde convient la loi de Moore qui a été précise au fil des ans, (la prévision a été modifiée depuis sa version originale), ou qu'il sera vrai dans l'avenir. Mais est-ce vraiment important? La vitesse à laquelle les ordinateurs sont de doubler leur intelligence est assez rapide pour moi.

Merci à l'innovation et le dynamisme de Gordon Moore et d'autres comme lui, les ordinateurs vont continuer à devenir plus petit, plus rapide et plus abordable.

     V.            L'ordinateur du futur ?

L'ordi du futur ?

 Cette anticipation design d'ordinateur laisse songeur mais pourrait paraître crédible dans un avenir proche...

L'idée est bonne, le design séduisant et la technologie pas encore en place. Le RollTop élaboré par le designer allemand Evgeny Orkin laisse entrevoir une gamme d'ordinateurs de grande consommation dans un avenir proche.

Cette innovation ressemble à première vue à un gros thermos design. Cet ordinateur de 17 pouces fait fonction, lorsqu'il est plié, de portable (13 pouces) habillé d'un clavier numérique mais peut aussi se transformer en télévision. Une colonne permettant l'enroulement de l'écran abrite une enceinte stéréo et des connectiques.

 

http://www.influencia.net/data/photo/167.jpghttp://www.influencia.net/data/photo/168.jpghttp://www.influencia.net/data/photo/169.jpghttp://www.influencia.net/data/photo/170.jpg

 

Une chose est évidente, l'ordinateur portable d'aujourd'hui est encombrant, d'où l'émergence des notebooks qui sont discrets mais peu performants. Pas évident de consommer Internet sur un 10 pouce. Quant aux iPhones et smartphones, la technologie va évoluer mais l'écran restera petit. L'avenir passe peut-être par des modèles pliables, légers et bien entendu peu encombrants. Selon mes attentes, Le RollTop est sur la bonne voie.


La visualisation d’informations

La représentation des informations est en perpétuelle évolution dans le monde du High-Tech. C’est pourquoi nous nous attaquerons aux différents dispositifs de visualisations matérielles et logicielles puisque c’est deux parties vont de pair. Puis nous aborderons la réalité augmentée qui s’érige comme la technologie de cette décennie.

       I.            Les dispositifs de visualisations

 

1.       Historique

 

Lorsque l’on parle de dispositif de visualisation matériel, on fait référence en premiers lieux aux écrans :

-          CRT

-          Plat

Le tube cathodique Cathode Ray Tube inventé par Karl Ferdinand Braun. Il fait appel à un tube à vide constitué d’un filament chauffé qui projette des électrons sur une couche électroluminescente qui produit alors un point lumineux.  Jusqu’en dans les années 90 les écrans d’ordinateur utilisé un système dit vectoriel similaire à ceux des oscilloscopes. Puis sont apparus les premiers dispositifs couleurs qui ont permis de révolutionner les interfaces hommes machines.

C’est à partir des années 2000 que démarre l’abandon progressif de ce moniteur analogique. C’est pour des raisons de coût  que cette technologie omniprésente sera remplacée par les moniteurs numériques.

 Ces nouveaux types d’écrans ont alors pour avantage d’avoir un encombrement réduit. De plus, leur prix devient de plus en plus attractif puisque proche de celui des écrans à tubes.

Les premiers écran plat à cristaux liquides (Liquid Crystal Display) ont fait leurs apparition principalement dans les années 90 avec les premiers ordinateurs portables,PDA… Cette technologie permet de modifier nos habitudes dans le monde mobile. Un simple exemple tel que les mobiles (téléphone portable,PDA…) qui en passant du noir et blanc aux couleurs ont permis la démocratisation du WAP et des interfaces logicielles qui s’est poursuivie avec l’augmentation de la résolution.

Quant aux écrans plasma il est surtout réservé aux écrans de grande taille cependant, le coût de fabrications élevé et l’abandon de ce procédé par certain constructeur pourrait bien avoir raison de la technologie.

Entre temps c’est également démocratisé les vidéoprojecteurs dans les entreprises et administrations. Ceux-ci ont bouleversé les présentations, réunions, cours…

2.       Révolution en marche :

 

De nouvelles technologies sont en marche dans le but de modifier nos comportements et nos besoins. On peut notamment penser aux techniques suivantes:

-          OLED

-          Hologrammes

-          HUD

-          3D

Aujourd’hui de nouvelles technologies sont en vue pour remplacer le LCD sur les appareils mobiles comme le OLED. En effet celui-ci permet :

Cette technologie prend de plus en plus place dans les appareils mobiles (notebook, téléphone mobile).  Mais la grande originalité réside dans sa souplesse puisqu’il est très fin et très souple. C’est en 2007 que SONY a présenté en grande pompe au SID un prototype d’écran totalement pliable d’une épaisseur de 0,3mm.

En adaptant le processus de fabrication, Sony est parvenu à produire un prototype encore plus impressionnant :

-          Épaisseur : 80 micromètres

-          Résolution : 432 x 240 pixels

-          Pliable 1000 fois

-          Taille : 4, 3 ‘’

Tous les grands fabricants tels qu’HP, Philips, Samsung cherchent à mettre au point ce genre d’écran souple souvent appelé papier électronique. Les applications restent à la fois nombreuses et imprécises. On pense à des écrans de plus grande taille pour des appareils que l’on enroulerait avant de le ranger dans sac… Certains imaginent même qu’il pourrait remplacer son homologue en cellulose. C’est le cas de la société d’audiovisuelle NHK qui déclare qu’avec un cout de fabrication faible bien des gadgets peuvent être imaginés.

 

http://techno-science.net/illustration/Multimedia/OLED/sony-ecran-couleur-souple.jpg

 

 

 

techyouholoswrdQui a vu Star Wars s’est forcément émerveillé devant l’appel au secours de la princesse Leia et les apparitions d’Obiwan Kenobi, projetés par le robot R2D2 ou devant des dialogues entre l’empereur et Dark Vador, chacun à des milliers d’années-lumière de distance et pourtant dans la même pièce. L’holographie, un doux rêve de geek qui devient peu à peu une réalité tangible. Si on est encore loin de voir arriver le procédé dans nos chaumières, il est possible d’assister à certains évènements utilisant la projection holographique.



 

 

 

Mais qu’est-ce que c’est au juste ?

 

Historiquement, il s’agit d’un principe de photographie en trois dimensions découvert en 1948 par Dennis Gabor, un physicien hongrois qui effectuait des travaux sur la microscopie au laser. Pour faire (ultra) simple, en pratique, l’objet dont on souhaite réaliser une holographie est soumis à deux rayonnements laser identiques, l’un directement sur l’objet, l’autre sur la plaque photosensible censée en renvoyer l’image. En résultent des ondes qui interfèrent et donnent naissance à l’hologramme. Les applications sont nombreuses et surtout, certaines dérivés que l’ont peut croiser tous les jours sont appelés hologrammes. Les collections d’images Panini et les cartes spéciales où le sujet semblait sortir du support ou encore « l’hologramme » de votre carte de crédit.

 

 

Une technique de base adaptée par la suite à la projection vidéo. Aujourd’hui, l’effet nécessite forcément des surfaces de projection, au contraire de certains films où les projections apparaissent au beau milieu d’une pièce, sans instruments. Mais ce vers quoi l’on pourrait tendre, c’est bien la fusion de notre univers palpable et celui des hologrammes.

 

Spécialisée dans les technologies vidéo avancées, la société danoise ViZoo dispose d’un procédé de projection holographique impressionnant, Cheoptics360. Le système de projection holographique le plus abouti à ce jour. Il fonctionne via un prisme réfléchissant inversé dont chaque face est stimulée par une partie de l’image à renvoyer. Résultat, une reproduction 3D (on peut tourner autour de l’image projetée sans perdre la sensation de volume) les objets qui semblent flotter dans l’air.

On peut alors imaginer différents types d’applications :

-          Visualisation d’objet dans l’industrie (laboratoire de recherche) commandé par mobile

-          Visualisation de plan dans le bâtiment, l’architecture

Cette technologie a pour l’instant deux inconvénients dans son déploiement :

-          Coût

-          Taille

 

Un nouveau type de visualisation est apparu à partir des années 80-90 dans le domaine militaire. C’est pour transmettre plus d’information aux pilotes que l’idée d’un visiocasque (HMD : Head Mounted Display) est apparue.

On distingue deux types de HMD dont les composants diffèrent :

-          Lentilles semi-transparentes

-          Écrans LCD ou LED

 

HMD diffère selon le type d’affichage puisque l’on peut générer une image ou une combinaison des deux.

§  La plupart des HMD proposent une l'image virtuelle (jeux vidéo)

§  Certains HMD permettent de superposer une image virtuelle sur une vue du monde réel. La combinaison de vue du monde réel avec une image générée par ordinateur(CGI) peut être effectué en projetant la CGI à travers un miroir partiellement réfléchissant et de visualiser le monde réel directement. Cette méthode est souvent appelée optique See-Thru. La combinaison de vue du monde réel avec la CGI peut également se faire par voie électronique en acceptant vidéo d'une caméra et le mélange par voie électronique avec CGI. Cette méthode est souvent appelée Vidéo See-Thru.

§   

Les HMD sont utilisés dans divers domaines :

-          Militaire :

o    Casque des pilotes d’avion modernes qui référence les données de vol.

o     Casque des Fantasins du programme « Félin » qui intègrent des données du terrain

-          Jeux vidéo :

o    Meilleure immersion dans le jeu.

-          Sport : Un système HMD a été développé pour Formula One et le groupe BMW. Selon BMW. Le HMD affiche en temps réel des informations critiques aux pilotes. 

Les HMDs sophistiqués incorporent un système de positionnement qui permet de suivre position de la tête du porteur et de l'angle, de sorte que l'image affichée soit en harmonie avec le monde extérieur.

 

 

 

Les écrans 3D existent depuis plusieurs années on retient 3 technologies :

-          Actives :

Les lunettes 3D actives sont lourdes et surtout plus couteuses embarquent de l’électronique dans leur structure. Le principe de la 3D active consiste à projeter l’image en alternance : un coup pour l’œil gauche, un autre pour l œil droit. Les lunettes intègrent des écrans LCD se polarisant en même temps que l’image. En résumé elles cachent un œil puis l’autre à tour de rôle. L’avantage de cette technologie est que chaque œil voit une image pleine (1920 X 1980) et la résolution est du coup bien meilleur.  En contrepartie, l’obturation des verres provoque une perte d’information et le rendu couleur est un peu plus fade

-          Passives :

C’est le premier procédé qui a existé et qui exigeait à l’époque des lunettes rouges et bleues. En fait, deux images sont filmées (toujours à 6 cm d’écart) et chacune est polarisée. C’est-à-dire qu’une est filmée pour ressortir via un filtre rouge et l’autre via un filtre bleu. Vos deux yeux voient bien chacun une image différente sur les deux projetée en même temps par deux projecteurs sur le même écran. Aujourd’hui les systèmes de polarisation ont évolué et les lunettes 3D n’ont plus besoin d’être rouges et bleues.

Le rendu est très bon, surtout au niveau des couleurs. Et la 3D fidèlement restituée. Cependant, la qualité d’image est divisée par deux par rapport aux lunettes 3D actives. C’est ce qu’on appelle dans nos salles obscures la real3D (Avatar par exemple).

La 3D passive est plus couteuse puisque les cinéastes doivent créer deux pistes (une pour chaque œil), c’est pour cette raison que l’industrie du cinéma pousse à la standardisation de la 3D active.

Cependant pour l’utilisateur, les lunettes 3D passives sont bien moins chères.

Seulement dans le cinéma ?

La 3D a été apportée au grand public part le cinéma notamment à travers le film AVATAR. Cependant depuis quelques années plusieurs moniteurs pour PC sont sortis et plusieurs jeux vidéo ont été adaptés à la 3D.

D'ailleurs, il se murmure qu’une console 3D pourrait sortir d’ici à fin 2010. On annonce même des mobiles 3D dans les prochaines années. Ce qui dans ce cas nécessiterait de revoir entièrement les interfaces logicielles.

 

 

 

 

 

 

 

 

 

3.       Les visualisations de demain :

 

À courts termes 1 à 2ans :

Les moniteurs seront à la fois 2D et 3D.avons vu qu’il y avait deux technologies qui s’opposé et à coup sûr une seule technologie de 3D va se standardiser, mais laquelle ? À noter que les constructeurs  Panasonic, Sony et Samsung seraient en lunettes actives. Et que LG, Philips, JVC seraient en passive. Reste Samsung qui dit maîtriser les deux. Une nouvelle guerre technologique est en marche. Et ce sera sans nul doute celui où les intérêts commerciaux seront les plus forts qui l’emportera.

À moyens termes 5 à 7ans :

Les dispositifs OLED vont s’imposer tout d’abord dans le monde du mobile avant de s’imposer dans nos foyers, mais ce ne sera pas avant de longues années. Sony ayant abandonné pour l’instant l’idée de produire des moniteurs grand public.

La démocratisation des HUD pourrait se faire très rapidement grâce à la miniaturisation des composants, mais surtout grâce à une réduction drastique des coûts.

À longs termes plus de 10 ans :

On peut imaginer qu’avec la baisse des coûts… des unités holographiques seront présentes dans tous les bureaux d’études des grandes industries. Et pourquoi pas dans les centres de formation de certaine entreprise… ou à l’école. Mais cette technologie n’est clairement pas pour demain.

    II.            Les interfaces logicielles

De nos jours les interfaces visuelles doivent permettre un accès rapide à l'information dont a besoin l'utilisateur sous forme macroscopique et synthétique.

1.      Contexte :

Malgré quelques différences dans ces définitions, un élément central fait l'unanimité : un outil ergonomique doit être adapté aux caractéristiques des hommes qui l'utilisent. « L'ergonomie est la discipline qui recherche cette adéquation entre caractéristiques humaines et caractéristiques de la machine. »

Le travail de l'ergonome sera guidé par l'idée de concevoir pour le plus grand nombre d'utilisateurs, ou pour un groupe d'utilisateurs donné, avec des caractéristiques propres .

Dans le domaine de l'informatique, on distingue en général ergonomie du logiciel et ergonomie web. Chacun de ces secteurs a des particularités qui conditionnent la manière dont on concevra l'application.

Un logiciel et un site web n'ont pas les mêmes objectifs, ne sous-tendent pas toujours le même type de tâches, peuvent être destinés à des cibles différentes. De plus, les technologies influencent beaucoup les aspects d'architecture et de surface des applications.

Enfin, les standards existant dans ces deux types d'interfaces sont totalement différents. L'interfaçage même des styles de dialogue est différencié. Web et logiciel présentent donc des besoins spécifiques, qu'on doit considérer dans leur contexte.

Cette distinction entre logiciel et web tend cependant à se réduire, de plus en plus d'applications professionnelles passant à une problématique web. C'est alors, plus que le type d'application, le type de public qui distingue le mieux les interfaces et le travail que l'on réalisera dessus.

Une idée fondamentale est que l'ergonomie informatique travaille toujours sur deux versants :
- les universels
- le spécifique

Une interface informatique doit satisfaire à deux grands critères :

- Utilité

Les fonctionnalités proposées par le système doivent être utiles : l'interface doit servir à faire quelque chose, et ce quelque chose doit être pertinent au regard des objectifs de l'utilisateur cible. L'application doit servir un besoin.

- Utilisabilité

La norme ISO 9241 définit l'utilisabilité de la façon suivante

De façon générale, l'utilisabilité d'un système comprend :

- sa facilité d'utilisation,
- sa facilité d'apprentissage,
- son efficacité d'utilisation,
- son utilisation sans erreurs
- la satisfaction de ses utilisateurs

L'utilisabilité se décline aussi différemment en fonction du contexte et de la cible utilisateur.

Le système doit être facile à utiliser. L'interface doit donc permettre à l'utilisateur d'exploiter au mieux les fonctionnalités du système. Une interface utilisable doit permettre à l'utilisateur de réaliser une action rapidement et efficacement.


 

 

 

2.      Les évolutions des interfaces graphiques :

Le tout premier développement graphique orienté utilisateur fut opéré par Xerox en 1973(Xerox Alto), qui n’était pas un produit commercial, mais permettait tout juste de mettre en avant les possibilités technologiques de l’époque.

Ce n’est qu’en 1983 qu’est apparu le premier système véritablement graphique « Apple Lisa Office » (voir ci-contre). Il a permis une nouvelle expérience à l’utilisateur avec l’apparition d’un nouveau périphérique d’entrée la souris. L’apparition de barre d’outils, de bouton, d’icône à permis entre autres la démocratisation de l’ordinateur individuel.

L’arrivée des premiers écrans couleurs à des tarifs attractifs à ensuite encourager le développement de nouvelle interface graphique. Mais la véritable révolution est arrivée avec des systèmes tels que Windows 3.1 qui amélioraient d’avantage les interactions hommes machines avec des accès par des interfaces graphiques à des paramètres systèmes…

L’augmentation des performances des unités centrales a permis d’améliorer les rendus graphiques avec les années. C’est ainsi qu’en 2001 MAC OS X a tiré parti de ces augmentations de performances pour revoir entièrement ses interfaces utilisateurs. C’est ainsi que sont apparu :

-          Les premières icônes semi-transparentes tirant profit de l’antialiasing.

-          Apparition de la barre Dock

-          Amélioration du rendu graphique en général avec l’introduction du style aqua

 

Micosoft répondra surtout d’un point de vue ergonomique avec Windows Vista en 2007. L’amélioration du rendu avait très peu évolué depuis 1998. Avec ce sixième OS, il revisite l’expérience de l’utilisateur en introduisant un bureau actif avec la mise en place de Widgets tout en améliorant le rendu 3D à travers des effets de transparences. Mais outre une apparence retravaillée, c’est essentiellement côté technique que l’interface innove, puisque, pour la première fois, Windows utilise les capacités de la carte graphique. Celle-ci devait supporter l’API de Microsoft DirectX 9 et disposer de pilotes compatibles WDDM (Windows Display Driver Model), pour pouvoir profiter d’une panoplie de différents effets.

Aero
Avec 
Windows Vista, Microsoft a complètement remodelé son interface avec Aero.

 


À savoir l’animation et la transparence des fenêtres, la prévisualisation du contenu des fenêtres ou des dossiers/répertoires, le basculement des tâches (Alt+Tab), l’effet Flip 3D (Windows+Tab) sans oublier les autres effets comme le halo de couleur bleue ou rouge provoqué par le passage du curseur sur les icônes.


Notons également la présence des icônes systèmes qui sont dorénavant vectorielles. Ce qui permet de modifier leur taille en fonction de ses préférences, mais aussi d’afficher un aperçu du contenu d’un fichier ou d’un programme avant qu’il ne soit ouvert. Il suffit par exemple d’ouvrir le répertoire accueillant vos morceaux musicaux pour découvrir une véritable jaquette album.

On peut également noter l’échec de Looking Glass développé par Sun et qui avait la particularité d’être proposé aux systèmes Windows, Solaris et Linux. Et dont le but était de proposer une interface totalement 3D.
Cette interface en 3D montrait des usages très avant-gardistes de fenêtres que l'on pouvait déplacer dans l'espace ou d'un jukebox virtuel dans lequel on piocherait parmi une pile de CD.

Au final, les améliorations des interfaces utilisateurs se sont fait grâce à l’évolution des différents matériels. Depuis quelques années ces interfaces ont très peu évolué, il n’y a pas eu de véritable bouleversement si ce n’est qu’on se dirige de plus en plus vers une disparition des menus défilant au profit de menu comme sur OFFICE 2007, 2010.

 

 

 

 

 

 

3.      Les études :

Plusieurs laboratoires travaillent sur les mobiles, navigateurs,OS de demain. On peut notamment citer la fondation Mozilla qui nous invite à partager nos idées sur le web de demain.

Pour inaugurer cette énorme boite à idées, Mozilla Labs a partagé trois vidéos présentant des produits conceptuels qui pourraient bientôt prendre place sur votre ordinateur.

Présenté par Adaptive Path, une société experte en ergonomie, le projet Aurora se penche sur les nouvelles interactions possibles entre l'utilisateur, le navigateur et le contenu web. Sur un système d'exploitation futuriste, le navigateur est fragmenté et chacune de ses fonctions, transformées en outil indépendant. L'utilisateur peut naturellement manipuler ces outils comme des objets de la vie réelle. D'un clic, deux personnes commencent une session de surf partagé au sein duquel l'interaction permet d'échanger tout type de données. L'écran comporte deux barres latérales et horizontales afin d'optimiser la manipulation de ces objets en permettant à l'utilisateur d'accéder facilement à ses raccourcis et son historique. Parce qu'ils tirent profit du web sémantique, ces éléments se regroupent automatiquement par classe au sein d'un espace en 3 dimensions.

On peut également citer le designer Wei Zhou qui s'est penché sur une nouvelle gestion des favoris d'un navigateur. Ici, l'idée d'un logiciel défragmenté est doublée d'un esprit minimaliste. Au démarrage, une simple barre de signets défile en haut de l'écran sous forme de vignettes organisées par groupes. Lorsque l'utilisateur clique sur un favori, la page web s'affiche en plein écran et la barre latérale se masque automatiquement. Un simple geste de la souris vers le haut de l'écran permet d'y accéder à nouveau. Il suffit de glisser-déposer une page vers un groupe de liens pour l'ajouter à sa collection. Ici aussi, le web sémantique opère sa magie et notamment pour le moteur de recherche qui permet de lister des sites similaires à celui visité.

Vous êtes également invité à jeter un coup d’œil à un brevet d’Apple

 

4.      Vers l’apparition d’une nouvelle interface utilisateur :

 

Il semble que la prochaine version majeure de Windows, qu'on attend pour 2011, prendra un tournant radicalement différent avec ses prédécesseurs.

Un ingénieur de Microsoft, Ron George, indiquait que la prochaine mouture de Windows donnerait la part belle à un nouveau type. Windows passerait d'un GUI (Graphical User Interface) à une NUI (Natural User Interface).

Microsoft semble donc partie pour prendre un virage radical sur Windows. Reste à voir comment le public accueillera ces changements, pour une fois que le géant de Redmond innove il serait dommage qu’elle ne soit pas récompensée pour ses efforts.

Si jusqu'ici Microsoft se contentait de proposer des améliorations de l'interface de Windows, en s'inspirant ou non des avancées de Mac OS X, il semble qu'un tournant radical soit en passe d'être pris pour la prochaine version majeure du système d'exploitation.

Les interfaces étaient basées sur le principe WIMP, pour Windows, Icons, Menus, Pointing
(fenêtres, icônes, menus, pointage). Il est très probable de voir apparaître un système radicalement différent dans les années à venir. L’ OCGM :

-          Objets

-           Conteneurs

-          Gestes

-          Manipulations.

 

Plus besoin de s'appuyer sur des appareils de pointage, des menus, ou des fenêtres. Ici, l'expérience devient l'interface. La réflexion a été lancée sur le constat qu'il est très difficile de fournir une interface utilisateur qui convienne tant aux débutants qu'aux utilisateurs confirmés. Cette nouvelle interface a pour objectif de s'adapter à l'utilisateur en fonction de ce qu'il fait et de ses habitudes.

Les objets peuvent être tant la représentation d'un objet physique qu'un élément de l'interface. Les conteneurs sont des groupements d'objets, qui seront représentés de manière contextuelle. Les gestes sont les actions de l'utilisateur qui déclenchent une fonction une fois terminée et reconnues par le système, et sont valables à tout endroit et tout instant, alors que les manipulations sont contextuelles et instantanées. Un geste peut également être composé de différentes manipulations. Selon Ron George, ces quatre éléments mis ensemble sont susceptibles de donner toute latitude, tant à l'utilisateur qu'aux concepteurs de Windows, de réaliser n'importe quelle tâche beaucoup plus facilement et intuitivement.

 

 

 

C’est ainsi qu’est apparu sur le web dernièrement le projet GUSTAV :

En effet, les laboratoires Microsoft travaillent sur le NUI dans le monde artistique. Tout l'intérêt de ce système réside dans la simulation réaliste des propriétés de la peinture et des pinceaux : texture et pression des pinceaux, mélange ou superposition des couleurs, application de la peinture avec les doigts… 

Généralement la peinture sur un ordinateur n’a rien à voir avec la peinture dans le monde réel. Le rendu d’une toile et de la peinture est en fait un phénomène très complexe, résultat de l’association  d’un pinceau composé de milliers de poils qui se déforment, en interaction avec de la peinture liquide et d’une surface rugueuse (la toile) pour créer une trace au final riche et complexe.

Jusqu’à très récemment, la puissance de calcul disponible sur un ordinateur familial n’a pas été suffisante pour tenter de simuler une telle expérience.. Gustav projet vise à exploiter la puissance croissante des PC et des processeurs graphiques et de combiner cela avec une interface utilisateur naturelle afin d’apporter une expérience riche de la peinture à un large public, amateur et professionnel.



5.      Pas d’interfaces naturelles dans le milieu professionnel ?

Outre les métiers graphiques et d’étude, il est difficile de prévoir éventuelle une percée des interfaces naturelles dans le monde professionnel. Puisqu’elles sont essentiellement ludiques.

6.      Et le web dans tout ça ?

Reste une grande inconnue pour les interfaces naturelles : Comment les exploiter dans le cadre d’un navigateur web ? Et c’est là où nous nous heurtons au casse-tête des interfaces web qui se manipulent à la fois avec la souris pour le clic ou le drag & drop (donc potentiellement la main ou le doigt), mais également avec le clavier pour saisir une URL ou remplir un formulaire.

Mais tout ceci pourrait bien changer avec la “widgetisation” des sites web et services en ligne sur l’iPhone et encore plus sur l’iPad.

 III.            La réalité augmentée

 

La réalité augmentée est désignée comme un système permettant de superposer au monde réel des éléments virtuels en 2D ou 3D afin de compléter notre perception du monde en temps réel.

1.       Contexte

 

Par définition elle permet de superposer des éléments fictifs ou réels que perçoit un utilisateur à l’aide de senseurs en tout genre, comme la caméra d’un téléphone mobile par exemple. À travers la RA, l’utilisateur bénéficie d’une augmentation de la quantité d’informations disponibles, ce qui contribue à enrichir la perception de son environnement grâce à des informations supplémentaires. La RA superpose donc des couches d’informations « virtuelles » sur ce que l’on voit physiquement et se différencie de la « réalité virtuelle », qui elle remplace complètement notre vision du monde réel par une reconstruction virtuelle.

C’est grâce aux derniers algorithmes en reconnaissance d’objet, la RA permet l’interaction rapide entre des bases de données et notre environnement physique. Ainsi, la RA transforme les lieux et les objets en objets communicants, capables de livrer des informations pertinentes. La visualisation des objets et lieux du quotidien est donc complétée par des informations supplémentaires, donnant aux utilisateurs de la RA la possibilité de naviguer dans leur environnement spatial d’une façon enrichie.

Métro ParisEt depuis quelques mois de nombreuses applications se démocratisent sur les appareils mobiles. L’une des premiers futs celle proposée par Metro Paris qui nous offre un système de géolocalisation des stations de métro permet à tout individu de se déplacer efficacement vers la station la plus proche puisqu’il pouvait visualiser les différentes stations à proximité.

 

 

 

 

 

 

Considérée comme l’une des principales innovations numériques des années à venir, la RA investit une grande quantité de domaines, allant des jeux au domaine médical ou encore industriel, en passant par la localisation, les loisirs et le bâtiment. A noter que le concept de réalité augmentée peut être non seulement appliqué à la perception visuelle, mais aussi aux perceptions olfactive ou auditive.

 

http://www.augmented-reality.fr/wp-content/uploads/2010/04/800px-HUD_view.jpgLe concept de RA est apparu dans les années 1960, grâce aux travaux de Myron Krueger qui évoquent par certains aspects la réalité augmentée en créant les premiers espaces interactifs ("Glowflow"), un ingénieur en informatique américain. Les années 1980 marquent, à leur tour, le développement des premières technologies de RA liées aux activités militaires. Les avions de combat bénéficiaient déjà d’informations en temps réel sur leur environnement grâce à leur affichage tête haute.

 

 

 

La décennie suivante a vu s’élargir le spectre d’activités en touchant directement la recherche médicale, archéologique… grâce au système d’imageries à ultrasons…

 

2.      Quels sont les acteurs du marché ?

Les entreprises européennes s’avèrent leaders sur le marché de la RA. Total Immersion, une entreprise française en a fait son cœur de métier en développant des logiciels de RA et qui détient près de 500 clients tels que Boeing,BMW,CNN… Presselite ou encore Dassault Systèmes sont à la pointe dans cette technologie. Du côté de la recherche, plusieurs centres travaillent sur la RA. Un groupe de plusieurs laboratoires français tentent de démontrer la faisabilité d’un système de réalité augmentée en extérieur dans le domaine des sciences et techniques de l’environnement, que ce soit en termes de technologie ou d’adoption par les utilisateurs finaux, c’est tout l’enjeu du projet RAXENV. On peut également faire référence au  MIT (Massachussets Institute of Technology)qui pour sa part,a élaboré un programme dénommé Sixth Sens qui a pour but de réduire la fracture entre le monde réel et le monde virtuel

3.      Quelques chiffres :

 Le marché de la RA est très récent, mais se compte déjà en millions de dollars. Bien qu’invisible il y a encore un an celui-ci promet d’être dynamique pendant les prochaines années si l’on en croit une étude de Qualcomm  En effet, selon ce rapport, le marché de la RA s’établira à $732 millions en 2014, tiré par les applications de la RA sur les téléphones mobiles. Le nombre de téléchargements passant de 1 million à 400 millions.

 

 

 

 

 

 

  IV.                        Les possibilités offertes :

 

Au niveau des usages, de nombreuses applications sont déjà expérimentées, d’autres, pas encore imaginées, ce qui laisse la part belle aux audacieux en termes de prototypes dans tous les secteurs dont en voici quelques-uns :

1.      L’e-commerce :

Est en plein « BOOM » depuis le début des années 2000. La nouvelle décennie va voir apparaître un nouveau type d’e-commerce. La réalité augmentée va révolutionner le commerce en ligne. Il est depuis longtemps possible de visualiser des catalogues de produits en ligne, sous forme de photographies ou parfois de modèles 3D texturés, qu'il est permis de contempler sous différents angles. Mais un inconvénient majeur de cette formule de vente est qu'elle ne permet pas au client ``d'essayer'' le produit, c'est-à-dire par exemple de vérifier si un vêtement correspond bien à sa silhouette, ou si un meuble ne se dénature pas avec le reste de la pièce.

 

Pour répondre à ce besoin rayban et d’autres sociétés on développé des applications permettant d’avoir un aperçu du produit sur sa propre personne (voir le résultat ci-contre).

 

 

 

Ou encore des sociétés comme playviz développent des solutions mettant en œuvre le fait d’essayer avant d’acheter. La réalité augmentée appliquée au e-commerce révolutionne le marketing des marques d’habillement, ameublement et décoration.

 

 

 

 

 

 

 

 

2.      Les loisirs :

Les jeux vidéo ont révolutionné les loisirs. Une entreprise française spécialisée dans les périphériques sans fil s’apprête à nous faire vivre de nouvelle sensation. Cette société a présenté l’AR drone lors du CES 2010. Le Drone est équipé de quatre hélices, chacune entrainée par un moteur. Il intègre un petit ordinateur fonctionnant avec Linux et plusieurs capteurs (gyroscope, accéléromètre, capteur à ultrasons) afin d’assurer la stabilité et la maniabilité de l’appareil. 

Une caméra, placée sous le corps de l’engin et reliée aux autres capteurs, lui permet en outre de mesurer sa vitesse, mais aussi d'effectuer des vols stationnaires. Le pilotage se fait avec un iPhone ou un iPod Touch via un réseau Wi-Fi. Une autre caméra située à l’avant retransmet les images du vol en streaming sur l'écran du téléphone.
 

La réalité augmentée permet de détecter une balise (marqueur), un autre drone en vol. Et bien sûr toutes les informations disponibles

 Ce type de réalité augmenté fait appel à de nouveaux composants comme l’accéléromètre, la boussole numérique qui permet de modifier la direction du drone.

3.      Culturel :

Lors de Futur en Seine une manifestation des contenus numériques en Ile de France, il était possible de visiter le cabinet de travail de Charles V, dans le château de Vincennes grâce à une technologie appelée Héritage 3D. Equipé d'un moniteur doté d'une double caméra, l'une orientée vers l'utilisateur, l'autre vers la pièce, le visiteur, au fur et à mesure de ses déplacements, verra apparaître sur l'écran le cabinet tel qu'il était à l'époque de « Charles le Sage ». La pièce actuelle, et qui n'a plus rien à voir avec ce qu'elle était il y a 700 ans, a d'abord été entièrement numérisée. Tout, du sol au plafond jusqu'au mobilier, a été recréé, dans les proportions exactes. Une quarantaine de marqueurs ont enfin été positionnés sur les murs de la pièce. Ils permettent à la console de savoir où elle se situe, et ce qu'elle doit montrer.

 

 

Pièce vue par l’utilisateur et la tablette :

 

 

 

 

 

 

4.      Industriel :

Dans le domaine industriel, la réalité augmentée peut avoir beaucoup d’application. Par exemple, le constructeur bavarois BMW a développé un système qui pourra être utilisé en concession par les mécaniciens.

Le système est basé sur une paire de lunettes permettant d’afficher les différentes étapes de démontage, montage d’un élément sur le véhicule. Ce système permet alors d’assister le mécanicien et permet d’éviter des erreurs de manipulation.

Zone de Texte: Lunette de visualisationCe qui est vu par l’opérateur :

 

 

 

 

 

La RA a donc été une tendance lourde en termes de médiatisation durant l’année 2009-2010. Elle était présente sur de nombreux salons internationaux. Nous sommes seulement au début de sa démocratisation.

Par ailleurs, il faut souligner que certaines sociétés telles que Layar travaillent à la mise au point d’API pour Smartphone. À travers la caméra de leur téléphone, les utilisateurs vont donc pouvoir scanner leur environnement, en obtenant des informations qui s’affichent en surimpression sur leur écran sur les objets et lieux qui les entourent. Afin d’affiner les recherches d’informations, la société nous propose plus de 176 filtres qui permettent de voir l’information par catégories : transports, divertissement, tourisme…

 

     V.            Les enjeux à venir

 

1.      Des verrous techniques ?

 

La RA comporte ainsi un certain nombre de limites et de verrous. Tout d’abord au niveau technique, Ronald Azuma3, chercheur à l’Université de Caroline du Nord et pionnier de la RA souligne que des règles fondamentales sont à respecter pour le fonctionnement d’un système de réalité augmentée : la combinaison du réel et du virtuel, le respect des contraintes d’interactivité et de temps réel, le respect de l’homogénéité et de la cohérence entre le monde réel et virtuel. En somme, il s’agit de problématiques de localisation, de visualisation et d’interaction, lesquelles permettent une bonne synchronisation entre le réel et le virtuel.

Si dans leur grande majorité ces systèmes de réalité augmentée sont destinés à des environnements restreints et contrôlables - ce qui limite les problèmes technologiques de variation de luminosité, de gestion des occultations et d’alignement 3D - la réalité augmentée en milieu extérieur ajoute à ces difficultés, d’autres problématiques. Elle y ajoute une gestion des données géoréférencées et celle d’une double localisation : une localisation absolue via des balises et un système GPS ainsi qu’une localisation relative de l’utilisateur grâce à des capteurs de mouvements. En outre, des modèles 3D assez fidèles de l’environnement sont nécessaires pour éviter les bugs, ce qui n’est pas chose aisée lorsque l’on couvre de vastes territoires. En outre, le traitement de données aussi riches sur des terminaux mobiles qui ont des capacités limitées de stockage constitue un autre verrou technique complexe à lever. 

D’autre part, à l’heure actuelle la technologie n’est pas encore parfaite en terme de confort d’utilisation. Elle tient encore du gadget et non d’un service parfaitement calibré. On ne lit pas non plus au quotidien un magazine face à sa webcam, et l’on ne marche pas non plus dans la rue avec nos mobiles tendus constamment sous les yeux. Et si l’apparition de lunettes de vision de réalité augmentée (HMD) compense ces problèmes en fournissant  un outil plus adapté à la vie quotidienne de l’utilisateur, cet outil  n’est pas encore grand public. La technologie n’est donc pas encore mature pour un usage massif, mais certaines innovations ouvrent des perspectives.

De plus, un système de Réalité Virtuelle intègre différentes technologies (architecture distribuée, acquisition de données, modélisation informatique de la géométrie et du comportement physique, synthèse d'images, de sons, retour d'effort, interface homme-machine, etc.) et il est essentiel que les limites de chacune d'entre elles soient bien connues pour que les équipes puissent produire des travaux compatibles.

 

 

 

2.      Les perspectives futures :

La démocratisation de cette technologie arrive cette année, mais on peut parier que  réalité augmentée  a un avenir radieux au courant de cette décennie : l’omniprésence des téléphones dits « intelligents » qui est le cheval de Troie pour envahir l’espace public et s’incruster dans les habitudes des gens.

Actuellement la réalité augmentée offre de nombreuses possibilités dans une dizaine de secteurs :

- Le tourisme et marché locatif : guide assistée.
- Le secteur manufacturier et industriel : instruction assistée, réparation.
- La vente au détail : catalogue augmenté.
- Les publications : extra interactif.
- La publicité directe : dépliants augmentés.
- L’éducation et la médecine : apprentissage et assistance opérationnelle.
- Le secteur militaire : aide au renseignement de terrain.
- L’art, décoration et architecture: prévisualisation in situ.
- Les jeux: apparition d’hybride jeu de plateau et vidéo.

On quittera bientôt le niveau anecdotique pour aller une intégration encore plus essentielle. D’ici là un effort tout particulier devra être fait pour se rapprocher des industriels et autres professionnels des secteurs visés…

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ANNEXE :

Apple aurait déposé des demandes de brevet relatives à l'évolution de la métaphore du bureau vers une représentation "multidimensionnelle". Selon cette nouvelle approche, le bureau tel qu'on le connaît est représenté avec un effet de profondeur et les surfaces tout autour ont un rôle actif. Ce changement d'état entre l'affichage 2D et 3D est réalisé sur une action de l'utilisateur, il va ainsi ajouter de la profondeur à son espace de travail.

brevet3d9

 

brevet3d1


Dans certains exemples on retrouve le principe des dossiers piles, mais détachées du Dock et posés derrière lui.

brevet3d2


Les fenêtres peuvent être déplacées sur les surfaces adjacentes avec le fond du bureau, dégageant ainsi cet espace, mais restant néanmoins dans le champ de vision et d'action de l'utilisateur.

brevet3d7

 

Les éléments posés "au sol" peuvent être, eux, balayés en avant ou en arrière ou de gauche à droite. Ils sont issus des piles présentes dans le Dock. Et lorsqu'on en ajoute ou en enlève, ils se réordonnent automatiquement. Sur la partie droite, les deux rectangles désignent une fenêtre et sous elle son éventuel reflet. Dans la seconde capture, la grande fenêtre affichée en fond est celle utilisée par l'application active.

brevet3d3>

 

brevet3d4

Avec cette représentation, la barre des menus a disparu. On déclenche l'apparition des menus (en haut à droite) depuis un objet (celui avec le logo Apple). Les noms des sous-menus sont présentés avec un effet de profondeur qui les place entre la fenêtre ouverte au fond et les intitulés des menus principaux à l'avant-plan, sur la droite.

brevet%203d5


À gauche la colonne verticale contenant des cases désigne en réalité une barre d'outils avec ses icônes. Des icônes d'outils qui peuvent prendre du volume dans leur représentation graphique. Le brevet précise que l'utilisateur pourra déplacer et faire tourner ces icônes. En ajouter et en enlever aussi - avec réajustement automatique de ces blocs - comme on le fait aujourd'hui avec la commande "Personnaliser la barre d'outils" dans les applications.

brevet3d6


Cette nouvelle métaphore a été déclinée en un dessin plus arrondi. Le brevet prend d'ailleurs soin de préciser que plusieurs formes géométriques peuvent être utilisées (triangle, tétraèdre, etc.) L'idée serait même d'offrir le choix à l'utilisateur du type de bureau 3D qu'il veut utiliser.

brevet3d8


Bien que ces idées puissent très bien ne pas trouver une application pratique un jour, les schémas montrent en tout cas que le Dock de Leopard, avec ses icônes posées sur un plateau 3D, est bien plus cohérent dans ce cadre-là que dans le bureau en 2D qui l'accueille aujourd'hui. Comme si dans l'évolution prévue pour le bureau de Mac OS X Apple avait finalement préféré aller au plus simple, laissant dans ses tiroirs l'essentiel de ses nouvelles idées.


La représentation d’une grande quantité d’informations

 

À mesure que les capacités de calcul et les capacités de stockages augmentent, on cherche à représenter des données de plus en plus complexes. J’entends par là que les simples sélections dans des tables relationnelles font désormais partie du passé. Les datacenters répartis sont maintenant courants, et l’organisation des données dans ces imbroglios de stockage oblige à faire des extractions très complexes pour sortir la moindre information, mais permet aussi de faire des statistiques très efficaces, et très précises.

Il faut cependant savoir comment représenter ces fameuses données. Les stocker est une chose. Les afficher de façon compréhensible pour l’utilisateur en est une autre. Et c’est là que les nouvelles interfaces graphiques peuvent nous aider.

 

       I.            L’organisation des données

1.      Le paradigme hiérarchique

 

L’architecture des ordinateurs est restée inchangée au niveau du stockage depuis des dizaines d’années. Tous les utilisateurs, qu’ils soient novices, amateurs, ou spécialistes du monde de l’informatique, comprennent, pensent, et organisent en hiérarchie les données qu’ils veulent sauvegarder.

Le problème de ces organisations hiérarchiques monoparentales commence à se faire sentir de plus en plus avec l’instauration des services distribués. Déjà sur les systèmes Unix, la hiérarchie n’était pas exactement monoparentale, mais plutôt sous forme de nœuds qui pouvaient se rejoindre n’importe où dans l’espace de stockage. Cependant, l’utilisation commune a tendance à toujours organiser les données de la même manière, comme il nous semble normal de le faire. Jusqu’à récemment, le monde des PC était quant à lui totalement incapable de faire des relations transversales dans les systèmes de fichiers. L’arrivée du NTFS sous Windows® a quelque peu changé cette donne, en utilisant un système de nodes semblables au système de fichiers Unix/Linux. Cependant, il reste quasiment impossible à l’utilisateur normal d’utiliser ces fonctionnalités.

On bride l’utilisateur, pour le cantonner dans ce qu’il connait, qu’il croit maîtriser. On ne veut pas changer les habitudes des utilisateurs finaux. Cependant, les bases de données d’entreprises ne sont plus réservées aux serveurs gigantesques, et aux supercalculateurs. De plus en plus, on voit apparaître des systèmes de stockage de données transversaux, que ce soit en local, ou par le biais d’un réseau.

 

2.      La problématique de l’extraction de données

 

Une fois que l’on a trouvé les outils nécessaires à l’extraction de données, et à leur exploitation, il reste un problème majeur : quelles informations chercher dans les méandres des bases de données modernes ?

Il faut savoir que chercher, comment l’extraire, et surtout comment lire et comprendre les données.  Mais pour cela faut-il savoir comment chercher ces données. Les méthodes de statistiques avancées sont aujourd’hui très au point, et permettent d’extraire rapidement et efficacement des enchevêtrements d’informations.

Par exemple, l’analyse en composantes principales, ou ACP est une méthode d’analyse de données pour les statistiques multivariées. Son principe est simple : transformer des variables liées entre elles en nouvelles variables indépendantes les unes des autres. Ces nouveaux axes d’étude permettent de reclasser des données selon d’autres critères. Données que l’on peut ensuite partitionner pour les regrouper.

 

Ensuite reste le travail de partitionnement : Afin d’éclaircir les données récoltées, rien de mieux que de faire des partitions pour regrouper les valeurs voisines, et ainsi avoir des groupements de données, certes moins précis si l’on se concentre sur les valeurs elles-mêmes, mais beaucoup plus parlant d’un point de vue global.

 

 

 

 

 

 

 

 

 

Ici le partitionnement en 3D permet de regrouper des valeurs afin de déduire de cette extraction des tendances globales.

 

 

    II.            Les arbres

 

En théorie des graphes, un arbre libre est un graphe non orienté connexe et sans cycle. On trouve aussi la notion d’arbre enraciné, qui correspond à un graphe orienté. Chaque nœud d’un arbre peut donc avoir plusieurs fils, mais un seul père. C’est le principe hiérarchique rencontré le plus souvent dans l’informatique.

 

1.      Des outils très utilisés, mais complexes à exploiter correctement

 

Les arbres sont l’outil le plus pratique pour représenter une organisation hiérarchique monoparentale. Or, comme nous l’avons vu, dans l’informatique moderne, bien que cela tende à disparaitre, tout est aujourd’hui encore organisé de cette manière.

Or les travaux sur les représentations d’arbres en théorie des graphes peuvent être une aubaine pour le monde de l’IHM. Pourquoi ne pas réutiliser ces techniques de représentation dans le monde de l’informatique ?

 

 

 

 

 

 

Un exemple d’arbre.

 

On voit clairement la monoparentalité des éléments

 

Cette représentation de graphe, aussi simple soit-elle, n’est que très rarement retrouvée dans les interfaces courantes. Pourtant, des avantages ressortent au premier coup d’œil : on a une vision plus globale de l’organisation, et on peut tout de suite faire des regroupements à vue d’œil.

Les arbres hyperboliques permettent une visualisation encore plus claire, grâce à l’utilisation de la géométrie hyperbolique, et de cercles concentriques dont les rayons sont adaptés en fonction de la profondeur des nœuds dans l’arbre.

 

Cependant, les arbres ont aussi de gros défauts : leur exploration est parfois lente et non optimisée : par exemple, si l’on se trouve sur un nœud très profond, et que l’on veut rejoindre un autre nœud à la même profondeur, mais dont le plu proche parent est proche de la racine ;  il faut remonter très haut pour redescendre, presque là où l’on était. Cette perte de temps est causée par la monoparentalité, principe fondamental des arbres.

De plus, les graphes ne sont pas toujours adaptés pour représenter une ontologie trop complexe. Les liens de parenté apparents entre des nœuds de même profondeur ne peuvent être exprimés, ni visualisés très facilement. Dès lors que le nombre de nœuds se multiplie, même les techniques de géométrie hyperbolique, ou d’affichage en 3D ne peuvent permettre une exploitation correcte de l’arbre.

 

 

2.      Mise en corrélation des différentes extractions de données et abolition des hiérarchies par arbres

 

Si l’on revient aux extractions de données complexes dont nous parlions, nous allons aussi vite nous rendre compte que l’utilisation d’arbres est à proscrire.

On représente souvent des extractions de données sous forme de cubes, pour des triples filtrages. Ainsi, pour 3 valeurs de variables (appelées dimensions), on obtient, au cœur d’un cube en trois dimensions, la valeur de notre recherche.

 

 

 

 

Cet exemple de cube de données montre le résultat d’une recherche multidimensionnelle dans une base de données.

 

La représentation de ces résultats sous forme d’arbres est quasiment impossible ici. Selon l’organisation de la base de données, même si les différentes valeurs des dimensions sont hiérarchiques, et si l’on peut les représenter chacune sous forme d’arbre, le lien entre ces arbres n’est pas représentable facilement.

Imaginons maintenant que l’on veuille coupler les résultats de plusieurs extractions de données multidimensionnelles. Et bien encore une fois, les liens entre les différentes dimensions de ces extractions ne peuvent être représentés par des arbres.

 

 III.            Les représentations des hiérarchies de données

 

Mais si l’arbre n’est pas une solution en soit. Comment représenter les hiérarchies modernes, dont la monoparentalité n’est plus obligatoire ?

1.      Les « nouveaux » concepts d’interface

 

De plus en plus, l’adaptation des interfaces graphiques aux nouveaux types d’entrées permet des nouveautés en matière d’interfaces.
On retrouve certaines techniques de représentation de données qui sont apparues quelques années auparavant, qui n’ont pas été utilisées, et qui désormais trouvent une utilité, une nouvelle jeunesse.

L’exemple le plus flagrant est le principe des tree-maps. Bien que j’aie décrié l’utilisation des arbres dans la partie, on peut adapter les tree-maps à d’autres schémas de structures.

 

Des exemples de Tree-maps : La coloration assure la lisibilité

 

Les représentations de données par le greeking sont aussi un concept qui se redéveloppe de plus en plus. Le principe du greeking est simple : représenter du texte par des symboles. Le texte est simplifié, mais n’est plus compréhensible.

Originellement, cette technique était utilisée pour simplifier les affichages sur les machines qui n’avaient pas les capacités de l’afficher rapidement. Désormais, on se sert de ces remplacements par des symboles afin de donner une vision globale d’un fichier ou d’un résultat textuel. Par exemple, on peut coder par des couleurs des significations ontologiques pour avoir d’un coup d’œil les points d’intérêts du texte.

Exemple de greeking pour la visualisation de codes sources

 

2.      Le zoom sémantique, une solution d’ergonomie ?

 

a.      Qu'est-ce que le zoom sémantique ?

 

On connait tous le principe du zoom, qui serait ici appliqué à une interface graphique. D’une vue globale, on se rapproche petit à petit des détails, pour avoir des renseignements plus précis, sans prendre en compte la zone hors zoom.

Le principe du zoom sémantique est que le changement d’échelle n’implique pas que la révélation de détails, dans le sens du texte, mais aussi un changement sémantique.

Ici on passe d’une vue globale d’un texte à une page précise par distorsion.
Ce changement de niveau de précision peut s’accompagner d’un changement de sémantique.

 

Ici, on passe d’une vision globale simplifiée à des détails dans les données.
On peut considérer que c’est une forme de greeking : on peut donc adapter le zoom sémantique, et la distorsion aux documents traités par greeking, ce qui facilite l’accès aux informations.

 

Les distorsions peuvent être appliquées aussi à des résultats d’ACP afin de faire ressortir les partitionnements établis.

 

  IV.            Exemple d’utilisation de ces concepts

 

Mettons que l’on veuille rechercher les entreprises d’un secteur économique donné, dans une région géographique donnée. On fait une extraction de données filtrée par secteur économique, et région géographique. Nous pouvons par exemple trier ces résultats par chiffre d’affaires, s’il est connu. Nous aurons une organisation économique :

Nous voulons finalement réorganiser cela d’un point de vue social, avec le nombre d’employés, imaginons que d’un mouvement de doigt, l’on change le point de vue de notre interface, mais l’on souhaite garder un point de vue économique, par le biais des couleurs :

 

D’un autre mouvement de doigt, nous plongeons dans l’entreprise 5, car c’est elle qui nous intéresse, on trouve alors un schéma des différents services, par importance :

 

 

De façon hiérarchique classique, comme dans un arbre, imaginons que l’on plonge dans le service, afin d’y trouver le nom d’un contact qui se trouve dans notre gestionnaire de contacts.

 

Une fois cette personne trouvée, on change de point de vue, et l’on récupère, d’un autre mouvement de doigt, toutes les personnes de notre liste de contacts, qui occupent le même poste. Cette fois triée par le nombre d’échanges par mail que nous avons eu avec ces personnes.

 

D’un autre mouvement de doigt, nous voilà dans la liste des entreprises que l’on a évoquées par mail avec ces contacts, triées sur le point de vue économique. D’une pression sur le nom d’une entreprise, on retrouve le lien avec notre contact dans l’entreprise 5. Avec un accès aux archives de nos mails, et une représentation par greeking de la pertinence de la recherche.

 

Les possibilités d’interfaces sont légions, à partir du moment où les données sont reliées de façon logique entre elles, mais sans être bridées par une technique de représentation.


Pistes de création d’entreprise

 

                Au cours de notre année de veille technologique nous avons eu l’occasion d’exploser divers domaines dans les interfaces mobiles novatrices. Vers la fin de cette année-là, nous avons eu chacun quelques idées de création d’entreprises qui pourraient marcher dans le futur. Au cours d’un brainstorming réalisé lors d’une réunion avec tous les membres du groupe ainsi que des camarades de classe, nous avons chacun exposé nos idées, et deux pistes sont ressorties parmi toutes celles présentées :

       Axe matériel : Matériel pliable et élastique pour permettre de mettre sur le marché des ordinateurs de plus en plus petits, et transportables.

       Axe logiciel : Interface basée sur un langage de mouvements sur une surface tactile, afin d’interagir avec le système de façon plus naturelle.

 

                   I.            Développement de matériel pliable

L’avenir du hardware peut se diviser en deux parties : d'une part, l’ubiquité de l’ordinateur peut s’imposer pour que de nombreux objets s’« informatisent » ; d’une autre part, l’ordinateur en tant que tel tend clairement à se miniaturiser, et à être de plus en plus pratique. L’idée de création d’entreprise se base sur cette dernière observation.

Les matériaux et matériels flexibles (notamment les claviers, les écrans, etc.) sont une solution pour permettre d’obtenir des ordinateurs plus mobiles, plus transportables.

 

                II.            Nouvelle interface multitouch

Nous savons qu’actuellement le multitouch est utilisé qu’à petite mesure de son potentiel. Il pourrait vraiment permettre de révolutionner le domaine de l’Interface homme-machine en changeant complètement l’interaction avec l’utilisateur, en créant une sorte de nouveau langage, en repensant totalement tout le système.


Conclusion

 

Les nouvelles technologies sont amenées à modifier les interfaces utilisateurs courantes. Elles vont bouleverser l’expérience de l’utilisateur avec l’arrivée de nouveaux dispositifs d’entrées/sorties.

On peut imaginer à l’avenir :

       L’abandon clavier physique

       Disparition des ordinateurs au profit d’objets informatisés.

       Un affichage adapté en fonction de l’utilisateur, tout en leur apportant de nouvelles « sensations ».

       Une réorganisation des données afin de mieux ordonner les interfaces.