Frisk information

Informationsplatform viser de seneste nyheder

Fra Cyborgs til Project Glass: The Augmented Reality Story

Fra Cyborgs til Project Glass: The Augmented Reality Story

Googles Project Glass har været igennem den sædvanlige historiebue – rygter, en forbløffende konceptdemo, rabiat spænding, tvivl om praktiske forhold og derefter ulmende mistillid – i en koncentreret periode på tre måneder, men baghistorien til augmented reality er i sit femte årti. Ønsket om at integrere virtuel grafik med den virkelige verden på en sømløs måde kan spores tilbage til de dage, hvor computere ikke kunne andet end at spore et par wireframes på en skærm; det har været et arbejde i gang lige siden. Hvis Googles vision fik dig til at spolere, kan den vej AR har taget – og hvor den kan gå hen – måske blæse dit sind.

Faktisk blev det første rigtige eksempel på augmented reality demonstreret tilbage i 1968, hvor Ivan E. Sutherland fra University of Utah i Salt Lake City viste en hovedmonteret tredimensionel skærm. Han beskrev [pdf link] hvordan “kinetisk dybdeeffekt” – projicering af to lidt forskellige billeder til brugerens øjne, der skifter i overensstemmelse med deres bevægelse – kunne kontrolleres af forskellige lokationssporingssystemer, selvom selve grafikken blot var trådrammekonturer.

Faktisk blev det første rigtige eksempel på augmented reality demonstreret tilbage i 1968, hvor Ivan E. Sutherland fra University of Utah i Salt Lake City viste en hovedmonteret tredimensionel skærm. Han beskrev [pdf link] hvordan “kinetisk dybdeeffekt” – projicering af to lidt forskellige billeder til brugerens øjne, der skifter i overensstemmelse med deres bevægelse – kunne kontrolleres af forskellige lokationssporingssystemer, selvom selve grafikken blot var trådrammekonturer.

Sutherlands idé – selvom det tilsyneladende var indlysende i dag – var, at hvis sporingssensorerne var nøjagtige nok og den computerskabte grafik tilstrækkeligt lydhør, ville den menneskelige hjerne komfortabelt kombinere dem med den virkelige verden. “Særlige briller indeholdende to miniature katodestrålerør er fastgjort til brugerens hoved,” skrev Sutherland. “En hurtig, todimensionel, analog linjegenerator giver afbøjningssignaler til miniature katodestrålerør gennem transistoriserede afbøjningsforstærkere. En af to hovedpositionssensorer, den ene mekanisk og den anden ultralyd, bruges til at måle positionen af ​​brugerens hoved.”

[aquote]Augmented reality blev opfundet af Boeing-ingeniører i 1992[/aquote]

“Augmented reality” som et udtryk blev i mellemtiden opfundet flere årtier senere af Boeing-ingeniørerne Tom Caudell og David Mizell. De skabte en hovedmonteret skærm af deres eget, kaldet “HUDset”, i 1992, som kunne overlejre flyets ledningstegninger over generiske væve. Som med Sutherlands system blev der brugt en kombination af head-tracking og individuelle skærme for hvert øje, selvom selve computeren kunne monteres i taljen.

Caudell og Mizell identificerede også en af ​​de vigtigste fordele ved augmented reality i forhold til virtual reality – det vil sige en fuldstændig computergenereret verden – nemlig at den var mindre processorintensiv. Det meste af brugerens perspektiv ville allerede være leveret, hvor AR-systemet kun behøver at beskæftige sig med de tilføjede detaljer.

Det åbnede dog et eget problem: vigtigheden af ​​nøjagtige placerings- og positionsmålinger, så virtuel grafik ville passe korrekt med objekter i den virkelige verden. Det er værd at huske på, at GPS først blev fuldt operationel i 1994, og det var først i det nye årtusinde, at almindelige brugere havde adgang til de nøjagtige data, militæret tidligere udelukkende havde nydt godt af. Imidlertid skulle grove positioneringsoplysninger også suppleres med langt mere præcise oplysninger om hovedvinkel, retning og mere, medmindre Sutherlands oprindelige principper ville blive overset.

Mens Boeing-systemet var beregnet til at blive brugt i kontrollerede produktionsmiljøer, tog AR- og wearables-pioneren Steve Mann teknologien ud i ørkenen. Et stiftende medlem af Wearable Computers-gruppen ved MIT’s Media Lab, nu ansat professor ved Department of Electrical and Computer Engineering ved University of Toronto, Mann foretrækker faktisk udtrykket “medieret virkelighed” frem for AR, og siden 1980’erne har han været idræt. bærbare computere af hans eget design. Mellem 1994 og 1996 livestreamede han udsigten fra et bærbart webcam til et offentligt tilgængeligt websted og modtog beskeder fra seere i et head-up display; han beskrev notorisk sig selv som “verdens første cyborg” over for pressen, og i 2002 udfordrede han lufthavnssikkerheden, efter at de angiveligt tvangsfjernede hans udstyr og forårsagede over $50.000 i skade.

[aquote]Manns oprindelige systemer var overordentlig omfangsrige[/aquote]

Manns oprindelige systemer var usædvanligt omfangsrige, hæmmet af datidens begrænsede batterilevetid og processorkraft eller bærbare computere, og inkluderede så bizarre elementer som “kaninøre”-antenne til trådløs forbindelse. Ikke desto mindre fortsatte forskeren, indtil i 1990’erne selve okularet var kompakt nok til at kunne rummes i et par overdimensionerede solbriller.

Ved at “formidle” verden omkring ham digitalt, søgte Mann ikke kun at introducere nye data i sit perspektiv, men genbruge og erstatte elementer af det virkelige miljø på måder, der passede bedre til hans behov. Hvis den personlige annoncering af Mindretalsrapport er blevet den digitale bogeyman af AR-naysayers, så repræsenterer Manns arbejde med den såkaldte Diminished Reality med studerende James Fung den medierede virkelighed, der vender tøjlerne tilbage. Mann viste, hvordan reklametavler og skilte i den virkelige verden kunne overlejres med hans egne data, såsom beskeder eller lokalitetsbaserede serviceadvarsler, hvilket i realiteten omdannede reklamernes visuelle rod til personlige skærme.

[vms 4964a558e65bdd07ff04]

Denne forskning fortsatte med at inspirere til et separat, men lignende projekt, The Artvetiser, som overlejrede kunstværker på annoncer identificeret ved optisk genkendelse. “Artvertiser-softwaren er trænet til at genkende individuelle reklamer,” skrev projektledere Julian Oliver, Damian Stewart og Arturo Castro, “som hver især bliver et virtuelt ‘lærred’, hvorpå en kunstner kan udstille billeder eller video, når de ses gennem den håndholdte enhed. Vi omtaler dette som produkterstatning.” En version af deres app er allerede blevet frigivet til Android-platformen.

Undervejs har nogle af Manns mere interessante opdagelser dog været omkring den måde, andre reagerer på hans bærbare teknologi, snarere end hvordan han selv nødvendigvis oplever det. “Selv et meget lille optisk element, når det placeres inden for det åbne område af en brillelinse, ser usædvanligt ud”, skriver Mann. “I normal samtale har folk en tendens til at se hinanden lige i øjnene og vil derfor bemærke selv det mindste støvkorn på en brilleglas.”

Faktisk, foreslår han, tiltrækkes mindre opmærksomhed, når begge linser har den samme tilsyneladende skærmsamling på plads, selvom kun den ene halvdel af den faktisk fungerer, da symmetrien er mindre skurrende. Han opfandt også udtrykket sousveillance[pdf link], faktisk det omvendte af overvågning, hvor “kropsbårne audiovisuelle og andre sensorer [are used for] indfangning, opbevaring, genkaldelse og bearbejdning af verden omkring individet.

[aquote]EyeTap bruger en stråledeler og kan være langt mere diskret[/aquote]

Senest har Mann arbejdet på EyeTap, den seneste iteration af hans bærbare skærmteknologi. I modsætning til meget af hans tidligere forskning, som blev udgivet for andre at pille ved og tilpasse sig, er EyeTap blevet mere aggressivt patenteret midt i snak om en kommerciel udgivelse. Hvor de nuværende bærbare skærme – såsom de Lumus-paneler, vi så for nylig – har været “envejs” og tilføjet computergrafik til synsfeltet, men afhængigt af et separat kamera til digital input, bruger EyeTap en stråledeler direkte foran øje for at kaste det indkommende lys ned ad en fiberoptisk vej til en såkaldt aremac (“kamera” bagud), og derefter returnere det.

Denne aremac kan behandle det indkommende lys, ændre det og derefter hoppe det tilbage til stråledeleren for at blive overlejret oven på den virkelige verden. Systemet betyder, at de synlige komponenter på skærmen kan være langt mere diskrete: I en brugerdefineret opsætning lavet af Mann og Rapp Optical er stråledeleren en lille vinklet blok i midten af ​​den højre linse med den fiberoptiske vej og andre komponenter, der faktisk udgør selve rammen. Mere omfangsrige komponenter kan skjules enten i nakken eller i en lomme.

Mann foreslog, at selv den lille strålesplitter kunne reduceres yderligere, hvilket bringer den ned til noget i retning af ætsningen involveret i almindelige bifokale linser. EyeTap-projektet har dog været stille, i det mindste offentligt, siden slutningen af ​​2000’erne, og der er ingen tegn på den kommercielle version – der ligner mere et Borg okular[pdf link] end den diskrete Rapp-prototype – vist før.

Det efterlader andre til at tage feltet, og de seneste par år har der ikke været mangel på augmented reality-koncepter, hvoraf Project Glass kun er det seneste. Nokias Mixed Reality-idé fra 2009 var, ligesom den nu oplyste Google-video, blot en “hvad nu hvis”-gengivelse, men brikkerne er endelig ved at falde på plads til produkter, du faktisk kan gå ud og købe.

[aquote]Det er ikke små mærker, vi kan forvente nogle højprofilerede wearables[/aquote]

Sidste måned bekræftede Lumus over for os, at det leverer bærbare okularer til adskillige OEM’er, som planlægger at lancere så tidligt som i 2013. Disse er heller ikke små mærker uden for radaren; virksomheden ville ikke bekræfte nogen navne, men fortalte os, at vi kunne forvente nogle højprofilerede, let anerkendte firmaer på listen. Spil-, multimedie- og smartphone-lignende funktionalitet er alle blevet nævnt som mulige use-cases.

Priserne bør heller ikke være skyhøje: Lumus bestemmer naturligvis ikke vejledende pris, men målstolperne er tilsyneladende blevet sat til mellem $200 og $600, afhængigt af kompleksiteten af ​​de bærbare ting, om de bruger en separat kablet behandlingspakke eller aflade batterier integreret i selve brillerne, og hvis de tilbyder monokulært eller binokulært AR-syn. Selv Google – for at være tydeligt, ikke nødvendigvis en Lumus-klient – ​​er overbevist om, at den kan oversætte Project Glass fra glitrende mockup til en enhed i den virkelige verden. “Det vil ske,” insisterede projektmedlem og Google VP Sebastian Thrun over for skeptikere, “jeg lover.”

Med teknologien endelig indhentet mainstream-ambitionerne, er den næste udfordring at overbevise offentligheden om, at wearables er noget, de måske vil have på. En regelmæssig kritik af Project Glass (som andre AR-systemer før det) har været, at det vil skabe en verden af ​​stadigt mere isolerede mennesker, der ikke engang behøver at trække deres smartphones frem for at skabe en barriere mellem dem og den virkelige- verden.

Det er i høj grad et spørgsmål om software, men også om etos. Det er bemærkelsesværdigt, at Steve Manns centrale EyeTap-patenter udtrykker det bærbare primært som et nyhedsudsendelses- og delingssystem: som noget, der kan skabe en fælles oplevelse adskilt fra fysisk nærhed:”I bærbare udførelsesformer af opfindelsen bliver en journalist, der bærer apparatet, efter tilpasning, en enhed, der uden bevidst tankegang eller indsats søger et optimalt udsigtspunkt og kameraorientering. Desuden kan journalisten nemt blive en del af et menneskelig efterretningsnetværk og trække på de intellektuelle ressourcer og tekniske fotografiske færdigheder i et stort samfund. På grund af journalistens evne til konstant at se verden gennem apparatet ifølge opfindelsen, som også kan fungere som en billedforbedringsanordning, opfører apparatet sig som en ægte forlængelse af journalistens sind og krop, hvilket giver anledning til en ny genre af dokumentarvideo. . På denne måde fungerer det som et problemfrit kommunikationsmedium, der bruger en virkelighedsbaseret brugergrænseflade” EyeTap patent 6,614,408 beskrivelse

Smartphonen er blevet vores indgang til digitale sociale netværk: Enhver afbrydelse mellem den og den virkelige verden opstår uden tvivl, fordi leveringsmetoden er ineffektiv. Googles koncept med hoppende ikoner og pop-up-dialogbobler adresserer muligvis ikke det helt, men hvis den seneste lavine af smartphones og mobilapps er noget at gå efter, skal du lægge hardware i udviklernes hænder og – uanset hvor rudimentært – softwaren vil hurtigt fremskridt. Et “sømløst kommunikationsmedium, der bruger en virkelighedsbaseret brugergrænseflade” er, hvordan Mann beskriver det: science-fiction bliver science fact.

Historiens tidslinje

[Image credits: EyeTap, Steve Mann,Daniel Wagner]