PC’en ødelægger social tænkning

Den personlige computer og dens en-til-en brugerflade ødelægger vores naturlige muligheder for at samarbejde, mener Chia Shen. Hun forsker i brugerflader og forsøger at opfinde en, der fremmer samarbejde.

Det kan være svært at se skoven for bare træer, siger vi. Det kan udlægges på forskellige måder. Den, jeg er interesseret i, handler om, at vi ikke kan forstå begrebet skov, hvis vi kun ser træer.
Vi kan først forstå begrebet skov, når vi ikke længere er i en skov. Når vi ser skoven udefra, opdager vi pludselig, at skoven er et særligt begreb, der er anderledes end for eksempel  “sø” eller “by”.
Det var den følelse, jeg fik, da jeg talte med den kinesisk-amerikanske forsker Chia Shen. Hun arbejder på Mitsubishi Electric Research Laboratories, MERL. Det er Mitsubishis nordamerikanske forskningsafdeling. Det er et spændende sted, hvor der bliver forsket frit og visionært – det minder om en miniudgave af det gamle Xerox PARC. Det er næppe tilfældigt, at det ligger i Boston kun to gader fra et andet berømt opfindersted, nemlig MIT.

Chia Shens interesse er kollaborative brugerflader, og det er her tankerne om træerne og skoven bliver relevante. De træer, vi er omgivet af, er vores personlige computere. Jeg er så vant til min PC, at jeg ikke tænker meget over, hvordan dens brugerflade styrer mange elementer af min måde at arbejde med computere og især mit samarbejde med andre mennesker.
I følge Chia Shen, så er den personlige computer antikollaborativ – den er simpelthen forstyrrende og i nogle tilfælde dræbende for den sociale proces, som er kernen i ethvert samarbejde.

Forstyrrelsen foregår på mange måder: For eksempel kigger alle i samme retning, når vi er flere om en computer. Det betyder, at vi har meget sværere ved at se de signaler, der ellers typisk er en del af en samtale. Vi bruger for eksempel blikretningen og små kropsryk til at fordele taletiden og skaffe os selv opmærksomhed. Men det virker ikke, hvis vi alle ser den samme vej.
Man har heller ikke lige adgang til data, fordi der typisk vil være en, der kontrollerer mus og tastatur. Og hvem har ikke prøvet den umulige situation, hvor man forsøger at få musestyreren til at rulle op eller ned til et bestemt sted? Vores sprog har ganske enkelt ikke de nødvendige udtryk til at gøre det på en let måde.
Resultatet er, at vi kun sjældent forsøger at samarbejde henover en computer – vi foretrækker at skrive vores data ud eller diskutere dem foran en tavle. Begge dele har problemer – man kan hverken linke eller zoome data på papir og den, der står ved tavlen har ofte stor indflydelse på strukturering og tolkning af diskussionen.

Chia Shen vil gerne lave en brugerflade, der giver bedre mulighed for at samarbejde. Hendes løsning er noget hun kalder en multiuser/multitouch brugerflade.
Faktisk er det et bord. Et meget specielt bord, hvor man kan projicere et computerbillede ned ovenfra. Billedet fungerer som en touchscreen, hvor hver person omkring bordet kan røre ved billedet og interagere med det på forskellige måder. Systemet er i stand til at skelne op til fire brugere fra hinanden, så fire personer kan samtidig røre ved billedet – og hver persons berøring kan programmeres til at fungere anderledes end naboens.
Desuden forstår systemet talte kommandoer, så man i de fleste tilfælde ikke har brug for et tastatur.

Der er mange problemer med at få denne type brugerflade til at fungere. Et af de mere morsomme er, at vi har tykke fingre, der gør det svært for os at pege præcist. Samtidig har vores fingre en tendens til at sitre lidt, så computeren har svært ved at forstå, hvad man forsøger at pege på.
Andre mere ordodnede problemer er for eksempel, hvordan man skal præsentere data. Hvis folk sidder rundt om et bord nytter det for eksempel ikke at vise en tekst, der kun vender mod den ene side af bordet. Løsning: at præsentere teksten korrekt orienteret overfor hvert enkelt deltager ved bordet.

Et mere interessant problem, som Chia Shen og hendes kollegaer har skullet løse, er hvad en given håndbevægelse betyder. Når vi arbejder med en mus, kan den kun bruges på nogle få forskellige måder. Dem kan vi lære på et øjeblik. Men Chia Shens bord er langt mere fleksibelt – man kan for eksempel bruge begge hænder -så der er hundredvis af signaler, man kan give med hænderne.
Derfor har de valgt at lave en lige så fleksibel brugerflade. Via talekommandoer kan man når som helst indprogrammere en gestus til at betyde noget bestemt – og hver person kan selvfølgelig have sit eget gestusvokabularium.

Det kan lyde indviklet, men Chia Shen mener, at det er en brugerflade, der føles mere naturlig, end den vi bruger på vores personlige computer. Det bygger hun blandt andet på de reaktioner, som brugerfladen får, når hun viser den frem. Ældre direktører, der normalt står med hænderne i lommen foran en computer, går umiddelbart i gang med at bruge multitouch bordet – og børn i alle aldre hopper selvfølgelig direkte på.
Det hjælper, at bordet er meget robust. Man kan stille ting – kaffekopper og penne – på det uden at det forstyrre dets funktioner eller ødelægger det. Men det er også klart, at brugerfladen er mere intuitiv. Det ligner den fysiske verden mere end mus og tastatur gør.
Faktisk opfatter de fleste brugere det slet ikke som en computer. En typisk reaktion, når systemet slukkes og der dukker et Windowslogo op er “Guud, er det en computer?”.

Det er indlysende, at denne type brugerflade egner sig mest til nogle typer data. Data som kort og tegninger er ideelle. For det første kan man med gestus orientere sig og bevæge sig langt hurtigere på et kort end med nogen anden form for brugerflade. Samtidig kan man vise en vej eller afgrænse et område bedre end det kan lade sig gøre på en opretstående computer.
Men Chian Shen tror også, at der vil vise sig nye måder at håndtere mindre velegnede datatyper på, som kan være meget interessante. For eksempel undersøger de i øjeblikket, hvordan flere mennesker kan samarbejde om visuel søgning og måske gøre det bedre end et enkelt menneske.
Når man først har fået ideen, så er det heller ikke så svært at forestille sig, hvordan ting, vi i dag gør som enkeltpersoner, måske kan gøres på andre mere sociale måder.

Chia Shen mener, at disse former for multiuser/multitouch brugerflader kan virke som kognitive forstærkere, så vi kan gøre og tænke ting på en ny og i nogle tilfælde bedre måde.
Dels fordi bordet virker meget mere naturligt – vi bruger begge hænder og både gestus og tale. Derfor kan vi opleve og håndtere data med flere sanser, med større frihed og mere kropsligt involveret. Den kognitive barriere, som PC’en er, bliver delvist nedbrudt.
Samtidig har brugerfladen en indbygget socialitet. En gruppe mennesker kan ikke sætte sig omkring det elektroniske bord uden, at der straks opstår en gruppedynamik. Ting bliver til samtaler, og gruppens data smelter sammen med dens sociale funktioner på en måde, som de fleste af os aldrig har prøvet før.
Fire mennesker i koncentreret flow på en brugerflade, der fuldstændig understøtter deres tanker og udvekslinger kan meget vel tænkes at være en imponerende oplevelse.

Vi får sikkert muligheden. MERL-forskerne har udgivet en Javatoolkit – DiamondSpin – der nærmest fungerer som et operativsystem for tabletop interfaces. Det er Open Source, så det er til rådighed for alle, men i øjeblikket mest beregnet til at gøre det let for andre at lave forsøg og udvikle videre.
Mitsubishi har planer om at arbejde videre med modning af reelle salgsklare systemer, men der vil formentlig gå år, før de kan købes til almindeligt brug.
Det kan ikke gå hurtigt nok. I en fremtid, hvor flere og flere problemstillinger ikke kan rummes indenfor et enkelt menneskes viden, bliver muligheden for at arbejde sammen på en naturlig og tankefremmende måde vigtigere – og så kunne det såmænd også vise sig at være sjovere.

Se mere om Chia Shen og hendes arbejde her (der findes både video, videnskabelige papers og mere dybtgående tekniske beskrivelser):
http://www.merl.com/projects/DiamondTouch

Download DiamondSpin her:
diamondspin.org

Skriv et svar

Udfyld dine oplysninger nedenfor eller klik på et ikon for at logge ind:

WordPress.com Logo

Du kommenterer med din WordPress.com konto. Log Out / Skift )

Twitter picture

Du kommenterer med din Twitter konto. Log Out / Skift )

Facebook photo

Du kommenterer med din Facebook konto. Log Out / Skift )

Google+ photo

Du kommenterer med din Google+ konto. Log Out / Skift )

Connecting to %s