L'évolution de la technologie tactile

L'évolution de la technologie tactile / La technologie expliquée

Dans l'espace technologique, le temps passe vite; Il y a un peu plus de sept ans, les smartphones tels que nous les connaissons n'existaient pas. Aujourd'hui, ils constituent le secteur de la technologie le plus rentable sur Terre (et tellement répandu qu'il s'agit d'un problème. Comment remédier à la dépendance des smartphones (A Smartphone Detox) Cure Smartphone Addiction (Une détoxication de smartphone) La dépendance à un smartphone est réelle et vous pourriez être affectée. En conséquence, il est facile de perdre de vue à quel point les technologies que nous utilisons sont vraiment révolutionnaires et importantes..

Les écrans tactiles et les interfaces multitouch font désormais partie intégrante du langage fondamental de l'interaction homme-machine. Toutes les futures interfaces porteront avec elles les échos des interfaces tactiles, de la même manière que le clavier et la souris ont modifié de façon permanente le langage des interfaces qui les ont suivies. À cette fin, nous allons aujourd’hui prendre un moment pour parler de la façon dont les écrans tactiles et les interfaces qu’ils permettent ont été créés, et où ils vont maintenant..

Tout d’abord, prenez un moment pour regarder cette vidéo:

Écoutez le son du public quand il est témoin Glisser pour déverouiller et glisser pour faire défiler pour la première fois. Ces personnes ont été complètement époustouflées. Ils n'ont jamais rien vu de tel auparavant. Steve Jobs aurait tout aussi bien pu traverser l'écran et sortir un BLT de l'éther, pour ce qui le concerne. Ces interactions tactiles de base que nous prenons pour acquises étaient totalement nouvelles pour elles et avaient une valeur évidente. Alors, comment en sommes-nous arrivés là? Ce qui devait arriver pour arriver à ce jour particulier en 2007?

L'histoire

Étonnamment, le premier appareil à écran tactile était capacitif (comme les téléphones modernes, plutôt que la technologie résistive des années 1980 et 1990) et remonte aux environs de 1966. Il était un écran radar, utilisé par le Royal Radar Establishment pour contrôler le trafic aérien, et a été inventé par EA Johnson, à cet effet. L'écran tactile était volumineux, lent, imprécis et très coûteux, mais (à son crédit, il est resté utilisé jusqu'aux années 1990). La technologie s'est révélée en grande partie peu pratique, et peu de progrès ont été réalisés pendant presque une décennie..

La technologie utilisée dans ce type d’écran capacitif monotouch est en fait assez simple. Vous utilisez une feuille d'un matériau conducteur transparent, vous y passez un petit courant (créant un champ statique) et mesurez le courant à chacun des quatre coins. Lorsqu'un objet comme un doigt touche l'écran, l'espace entre celui-ci et la plaque chargée forme un condensateur. En mesurant le changement de capacité à chaque coin de la plaque, vous pouvez déterminer où l’événement tactile se produit et le signaler à l’ordinateur central. Ce type d'écran tactile capacitif fonctionne, mais n'est pas très précis et ne peut pas enregistrer plus d'un événement tactile à la fois..

Le prochain événement majeur de la technologie des écrans tactiles a été l’invention de l’écran tactile résistif en 1977, une innovation de la société Elographics. Les écrans tactiles résistifs fonctionnent en utilisant deux feuilles de matériau transparent souple, des lignes conductrices gravées sur les deux, dans des directions opposées. Chaque ligne reçoit une tension unique et l'ordinateur alterne rapidement entre les tests de tension de chaque feuille. Les deux ensembles de lignes (horizontale et verticale) peuvent être testés pour la tension, et l'ordinateur alterne rapidement entre le courant alimentant l'horizontale et le test du courant dans la verticale, et inversement. Lorsqu'un objet est appuyé contre l'écran, les lignes des deux feuilles sont en contact et les tensions fournies par les deux combinaisons indiquent les lignes verticales et horizontales activées. L'intersection de ces lignes vous donne l'emplacement précis de l'événement tactile. Les écrans résistifs ont une très grande précision et ne sont pas affectés par la poussière ou l'eau, mais paient pour ces avantages avec un fonctionnement plus fastidieux: les écrans ont besoin de beaucoup plus de pression que de capacités (rendant les interactions de glissement avec les doigts impraticables) et ne peuvent pas enregistrer plusieurs contacts événements.

Cependant, ces écrans tactiles se sont révélés être à la fois assez bons et assez économiques pour être utiles, et ont été utilisés pour diverses applications de terminaux fixes, notamment les contrôleurs de machines industrielles, les distributeurs automatiques de billets et les appareils de caisse. Les écrans tactiles ne se sont pas vraiment développés avant les années 1990, toutefois, lorsque les appareils mobiles ont commencé à arriver sur le marché. Le Newton, le premier assistant numérique personnel (PDA), lancé en 1997 par Apple, Inc., était un appareil révolutionnaire à l'époque, qui combinait une calculatrice, un calendrier, un carnet d'adresses et une application de prise de notes. Il utilisait un écran tactile résistif pour faire des sélections et saisir du texte (via une reconnaissance manuscrite précoce), et ne supportait pas la communication sans fil..

Le marché des assistants numériques personnels a continué à évoluer au début des années 2000, finissant par fusionner avec les téléphones portables pour devenir le premier smartphone. Les exemples incluaient les premiers appareils Treos et BlackBerry. Cependant, ces appareils dépendaient du stylet et tentaient généralement d'imiter la structure du logiciel de bureau, qui devenait encombrante sur un petit écran tactile actionné par le stylet. Ces appareils (un peu comme Google Glass Google Glass Review et Giveaway Google Glass Review et Giveaway Nous avons eu la chance d'obtenir une paire de Google Glass pour révision, et nous la donnons! En savoir plus aujourd'hui) étaient exclusivement du domaine du pouvoir - les gens d’affaires et les gens d’affaires qui avaient réellement besoin de lire leur courrier électronique lors de leurs déplacements.

Cela a changé en 2007 avec l'introduction de l'iPhone que vous venez de regarder. L'iPhone a introduit un écran multi-touch précis et peu coûteux. Les écrans multipoints utilisés par l'iPhone reposent sur une matrice de fils à détection de capacité soigneusement gravée (plutôt que de se baser sur des modifications apportées à la capacité totale de l'écran, ce schéma permet de détecter les puits individuels qui construisent la capacité). Cela permet une plus grande précision et permet d'enregistrer plusieurs événements tactiles suffisamment éloignés (permettant des gestes tels que "pincer pour zoomer" et de meilleurs claviers virtuels). Pour en savoir plus sur le fonctionnement de différents types d’écrans tactiles, consultez notre article sur le sujet Écrans tactiles capacitifs et résistifs: quelles sont les différences? Écrans tactiles capacitifs vs résistifs: quelles sont les différences? Les appareils à écran tactile capacitifs et résistifs sont partout aujourd'hui, mais quelle est la différence et comment fonctionnent-ils? Lire la suite .

La grande innovation apportée par l'iPhone est cependant l'idée d'un logiciel physicaliste. Les objets virtuels dans iOS obéissent à des intuitions physiques - vous pouvez les faire glisser et les faire glisser, ils ont une masse et des frictions. C'est comme si vous avez affaire à un univers d'objets à deux dimensions que vous pouvez manipuler simplement en les touchant. Cela permet des interfaces utilisateur beaucoup plus intuitives, car tout le monde vient avec une intuition pré-apprise pour savoir comment interagir avec des objets physiques. C’est probablement l’idée la plus importante dans l’interaction homme-ordinateur depuis l’idée de Windows et elle s’est répandue: pratiquement tous les ordinateurs portables modernes prennent en charge les gestes à touches multiples. Comment activer facilement le défilement à deux doigts dans les ordinateurs portables Windows Comment activer facilement le défilement à deux doigts dans Windows Portables Lire la suite, et beaucoup d'entre eux ont des écrans tactiles.

Depuis le lancement de l'iPhone, un certain nombre d'autres systèmes d'exploitation mobiles (notamment Android et Windows Phone) ont reproduit avec succès les bonnes idées fondamentales d'iOS et, à bien des égards, les ont dépassées. Mise à niveau vers Windows Phone 8.1 et profitez d'un nouvel App Store Interface! Passez à Windows Phone 8.1 et profitez d'une nouvelle interface dans l'App Store! L'une des nombreuses modifications apportées à la mise à niveau de Windows Phone 8.1 est la refonte de l'App Store. Cette amélioration facilite beaucoup la gestion de vos applications, comme vous le verrez dans un instant. Lire la suite . Cependant, l'iPhone a le mérite de définir le facteur de forme et le langage de conception avec lesquels tous les futurs appareils fonctionneraient..

Et après

Les écrans tactiles multiples continueront probablement à s’améliorer en termes de résolution et de nombre d’événements tactiles simultanés pouvant être enregistrés, mais l’avenir est en termes de logiciels, du moins pour le moment. La nouvelle initiative de Google en matière de conception de matériel vise à limiter radicalement le type d'interactions d'interface utilisateur autorisées sur ses différentes plates-formes, en créant un langage intuitif et standardisé pour l'interaction avec les logiciels. L'idée est de prétendre que toutes les interfaces utilisateur sont constituées de feuilles de papier magique, qui peuvent se réduire ou s'agrandir et être déplacées, mais ne peuvent pas inverser ni effectuer d'autres actions qui ne seraient pas possibles dans le facteur de forme du périphérique. Les objets que l'utilisateur tente de supprimer doivent être déplacés hors de l'écran. Lorsqu'un élément est déplacé, il y a toujours quelque chose en dessous. Tous les objets ont une masse et des frottements et se déplacent de manière prévisible.

À bien des égards, la conception matérielle est un raffinement supplémentaire des idées introduites dans iOS, garantissant que toutes les interactions avec le logiciel ont lieu dans le même langage et dans le même style. que les utilisateurs ne doivent jamais faire face à des paradigmes d'interaction contradictoires ou non intuitifs. L'idée est de permettre aux utilisateurs d'apprendre très facilement les règles d'interaction avec les logiciels et de pouvoir faire confiance aux nouveaux logiciels qui fonctionneront de la manière qu'ils espèrent..

Sur un plan plus large, les interfaces homme-machine approchent le prochain grand défi, qui consiste à supprimer l'écran tactile de l'écran, à savoir le développement d'interfaces immersives conçues pour fonctionner avec les plateformes de réalité virtuelle et d'AR telles que Oculus Rift (lire notre revue Oculus Revue du kit de développement Rift et cadeau Oculus Revue du kit de développement Rift et cadeau L'Oculus Rift est enfin arrivé et fait tourner les têtes (littéralement) dans toute la communauté du jeu. Nous ne sommes plus obligés de regarder à travers une fenêtre plate du monde du jeu. nous aimons… Lire la suite) et les futures versions de Google Glass. Rendre les interactions tactiles spatiales, sans que les gestes requis deviennent fatigants (“bras de gorille”) est un problème réellement difficile que nous n’avons pas encore résolu. Nous voyons les premiers indices de ce à quoi ces interfaces pourraient ressembler en utilisant des appareils tels que Kinect et Leap Motion. devraient tous toucher l'écran de votre ordinateur, agiter les bras devant votre Xbox et se frayer un chemin vers la victoire sportive virtuelle… Lire la suite), mais ces appareils sont limités car le contenu qu'ils affichent est toujours bloqué sur un écran. Il est utile de faire des gestes en trois dimensions pour interagir avec un contenu en deux dimensions, mais cela n’a pas le même confort intuitif que lorsque nos gestes 3D interagissent avec des objets 3D qui semblent partager physiquement l’espace avec nous. Lorsque nos interfaces pourront le faire, nous aurons le moment idéal pour l'iPhone en matière d'AR et de VR et nous pourrons vraiment commencer à élaborer sérieusement les paradigmes de conception du futur..

La conception de ces futures interfaces utilisateur bénéficiera du travail effectué sur le toucher: les objets virtuels auront probablement une masse et des frictions, et appliqueront des hiérarchies rigides de profondeur. Cependant, ces types d'interfaces ont leurs propres défis: comment saisir du texte? Comment prévenez-vous la fatigue des bras? Comment éviter de bloquer la vue de l'utilisateur avec des informations superflues? Comment attrapez-vous un objet que vous ne pouvez pas sentir?

Ces problèmes ne sont toujours pas résolus et le matériel nécessaire pour faciliter ce type d'interfaces est encore en développement. Pourtant, il sera bientôt là: certainement moins de dix ans et probablement moins de cinq ans. Dans sept ans, nous pouvons revenir sur cet article de la même manière que sur le discours d’aujourd’hui sur iPhone, et nous demander comment nous aurions pu être aussi étonnés par des idées aussi évidentes..

Crédits d'image: “SterretjiRadar”, par Ruper Ganzer, “singulier”, par Windell Oskay, “Android mange Apple”, par Aidan

En savoir plus sur: Ecran tactile.