Hur vet en dator var du tittar?

Tänk dig att köra bil, med hjälp av en frontprojektion på vindrutan för att navigera genom en obekant stad. Detta är förstärkt verklighet (AR); Informationen används för att inte bara vägleda dig längs en rutt, men också för att varna dig för viktig information i din omgivning, till exempel cyklister eller fotgängare. Rätt placering av virtuellt innehåll är inte bara avgörande, men kanske en fråga om liv och död.

Information kan inte dölja annat material och bör visas tillräckligt länge för att du ska förstå det, men inte för mycket längre än det. Datorsystem måste göra dessa bestämningar i realtid utan att orsaka någon av informationen att vara distraherande eller påträngande. Vi vill verkligen inte få en varning om en cyklist att korsa framför bilen för att dölja cyklisten själv!

Som forskare i AR spenderar jag mycket tid på att få reda på hur man får rätt information på en användares skärm, precis på rätt ställe, vid precis rätt ögonblick. Jag har lärt mig att att visa för mycket information kan förvirra användaren, men inte visa tillräckligt kan göra en ansökan värdelös. Vi måste hitta den söta platsen däremellan.

Ett viktigt inslag i detta visar sig vara att veta var användarna letar. Först då kan vi leverera den information de vill ha på en plats där de kan bearbeta den. Vår forskning innebär att mäta var användaren tittar på den verkliga scenen, som ett sätt att hjälpa till att bestämma var man ska placera virtuellt innehåll. Med AR redo att infiltrera många områden i våra liv - från drivande till arbete till rekreation - Vi måste lösa detta problem innan vi kan lita på AR för att ge stöd för allvarliga eller kritiska åtgärder.

Bestämma var du ska sätta information

Det är vettigt att information visas där användaren tittar. När du navigerar kan en användare titta på en byggnad, gata eller annat verkligt objekt för att avslöja den associerade virtuella informationen. systemet skulle veta att gömma alla andra skärmar för att undvika att röra den synliga scenen.


innerself prenumerera grafik


Men hur vet vi vad någon tittar på? Det visar sig att nyanser av mänsklig syn tillåter oss att undersöka på människans ögon och Beräkna var de ser. Genom att para dessa data med kameror som visar en persons synfält kan vi avgöra vad personen ser och vad han eller hon tittar på.

Ögonspårningssystem framkom först i 1900. Ursprungligen användes de mest för att studera läsmönster; vissa kan vara mycket påträngande för läsaren. På senare tid har realtidsspårning uppstått och blir billigare, enklare att använda och mindre.

Eye trackers kan fästas på skärm eller integrerad i bärbara glasögon eller monterade bildskärmar. Ögon spåras med en kombination av kameror, projektioner och datorvisionsalgoritmer för att beräkna ögonpositionen och blickpunkten på en bildskärm.

Vi tittar i allmänhet på två åtgärder vid undersökning av ögonspårningsdata. Den första kallas a fixering, och används för att beskriva när vi pausar vår blick, ofta på en intressant plats i en scen eftersom den har fått vår uppmärksamhet. Den andra är a saccade, en av de snabba ögonrörelserna användes för att positionera blicken. Korta fixeringsperioder följs av snabba rörelser, kallade saccades. I grund och botten pippar våra ögon snabbt från plats till plats och tar bitar av information om delar av en scen. Våra hjärnor lägger sedan informationen från dessa fixeringar tillsammans för att bilda en visuell bild i våra sinnen.

{youtube}tdFIvRMvFQI{/youtube}

Kombinerar ögonspårning med AR

Ofta är AR-innehåll förankrat till ett verkligt objekt eller en plats. Till exempel ska en virtuell etikett som innehåller ett gatunamn visas på den gatan. Helst önskar vi att AR-etiketterna ska visas nära det verkliga objektet som det är associerat med. Men vi måste också vara försiktiga så att inte flera AR-etiketter överlappar varandra och blir oläsliga. Det finns många sätt att hantera etikettplacering. Vi undersöker ett alternativ: beräkna var personen ser på den verkliga scenen och visar AR-etiketter bara i den platsen.

Säg, till exempel, en användare samverkar med en mobilapplikation som hjälper honom att handla till kalorier med lågt kaloriinnehåll i mataffären. I AR-ansökan har varje spannmål kaloriinformation associerad med den. I stället för att fysiskt plocka upp varje spannmålspanna och läsa näringsinnehållet, kan användaren hålla upp sin mobila enhet och peka den på en viss spannmålspåse för att avslöja relevant information.

Men tänk på hur trångt en butiks spannmålspass är med olika paket. Utan något sätt att hantera visning av AR-etiketter skulle kaloriinformationsetiketterna för alla spannmålslådorna visas. Det skulle vara omöjligt att identifiera kaloriinnehållet för spannmålet han är intresserad av.

Genom att följa ögonen kan vi bestämma vilken enskild spannmålspanna som användaren tittar på. Då visar vi kaloriinformationen för den särskilda spannmålen. När han skiftar blicken mot en annan låda visar vi siffrorna för den nästa han anser. Hans skärm är snyggt, den information han vill ha är lättillgänglig och när han behöver ytterligare information kan vi visa det.

Denna typ av utveckling gör det till en spännande tid för AR-forskning. Vår förmåga att integrera verkliga scener med datorgrafik på mobila displayer förbättras. Detta bränsle utsikterna att skapa fantastiska nya applikationer som utökar vår förmåga att interagera med, lära av och underhållas av världen runt omkring oss.

Om författaren

Ann McNamara, docent of visualization, Texas A & M University

Den här artikeln publicerades ursprungligen den Avlyssningen. Läs ursprungliga artikeln.

relaterade böcker

at

bryta

Tack för besöket InnerSelf.com, där det finns 20,000+ livsförändrande artiklar som främjar "Nya attityder och nya möjligheter." Alla artiklar är översatta till 30+ språk. Prenumerera till InnerSelf Magazine, som publiceras varje vecka, och Marie T Russells Daily Inspiration. InnerSelf Magazine har publicerats sedan 1985.