Hur det mänskliga / datorgränssnittet fungerar (Infographics)

Pin
Send
Share
Send

Användargränssnittets långa historia sträcker sig över årtiondena från de primitiva stansade kortdagarna på 1950-talet, genom de typade kommandoraderna på 1960-talet, till de bekanta fönstren och ikonerna i dag och därefter.

Tre faktorer arbetar för att både begränsa och möjliggöra utveckling av mänskligt / datorgränssnitt:

  • Beräkningskraft: Ökad kraftfull datormaskinvara möjliggör mer sofistikerade mjukvaruinteraktioner.
  • Fantasin för uppfinnarna: Programvarudesigners ser för sig nya interaktioner som drar nytta av att öka datorkraften.
  • Marknaden: Drivs av både stora företagskunder och även superpopulära konsumentgadgets som iPad.

En tidslinje för milstolpar i datorgränssnittet:

1822: Babbage Analytical Engine var ett viktoriansk tidskoncept som förutsågs mer än ett sekel innan dess tid, denna mekaniska dator skulle ha programmerats genom att fysiskt manipulera kammar, kopplingar, vevar och växlar.

1950-talet: Stansade kort användes först på 1700-talet för att kontrollera automatiska vävstolar. I slutet av 1800-talet användes korten för att mata in data i enkla tabuleringsmaskiner. Tillkomsten av elektroniska datorer på 1950-talet ledde till att IBM: s stansade kort blev det primära sättet att skriva in data och kommandon i datorer.

1960-talet: Command Line Interface (CLI). Teletyps tangentbord var anslutna till tidiga datorer för att låta användare skriva in sina kommandon. Senare användes katodstrålerör (CRT) som bildskärmsenheter, men interaktionen med datorn förblev bara en text.

1951: The Light Pen. Pennan är skapad på MIT och är en ljuskänslig pennan utvecklad för användning med vakuumrör i glasytor CRT-skärmar. Pennan känner av ändringar i ljusstyrka på skärmen.

1952: Trackball. Ursprungligen utvecklad för flygtrafikstyrning och militära system anpassades spårbollen för datoranvändning av MIT-forskare 1964. När en liten boll roteras av användaren, upptäcker sensorer förändringarna i orienteringen av bollen, som sedan översättas till rörelser i positionen för en markör på datorskärmen.

1963: Musen. Douglas Englebart och Bill English utvecklade den första datormusen på Stanford Research Institute i Palo Alto, Kalifornien. Enheten var ett träblock med en enda knapp och två växlar som var vinkelrätt mot varandra.

1972, medan de arbetade på Xerox PARC, ersatte Bill English och Jack Hawley de två rullhjulen med ett metallkullager för att spåra rörelse. Bollen gjorde det möjligt för musen att röra sig i valfri riktning, inte bara på en axel som den ursprungliga musen.

1980 utvecklades den optiska musen samtidigt av två olika forskare. Båda krävde en speciell musmatta och använde speciella sensorer för att upptäcka ljus och mörkt. Dagens optiska möss kan arbeta på valfri yta och använda en LED eller laser som en ljuskälla.

1980-talet: Det grafiska användargränssnittet. Xerox Star 8010 var det första kommersiella datorsystemet som kom med en mus, samt ett bitmappat, fönsterbaserat grafiskt användargränssnitt (GUI) med ikoner och mappar. Dessa teknologier utvecklades ursprungligen för ett experimentellt system som heter Alto, som uppfanns på Xerox Palo Alto Research Center (PARC).

Xerox-arbetsstationssystemen var avsedda för affärsbruk och hade prislappar i tiotusentals dollar. Apple Macintosh var den första datorn på konsumentnivå som inkluderade det avancerade svartvita grafiska gränssnittet och en mus för att placera markören på skärmen.

1984: Multitouch. Det första transparenta multitouch-skärmlagret utvecklades av Bob Boie på Bell Labs. Hans enhet använde en ledande yta med spänning applicerad över den och en rad beröringssensorer som låg ovanpå en CRT-skärm (katodstrålerör). Människokroppens naturliga förmåga att hålla en elektrisk laddning orsakar en lokal uppbyggnad av laddning när ytan berörs, och platsen för störningen i fältet kan bestämmas, vilket gör det möjligt för en användare att manipulera grafiska objekt med sina fingrar.

2000-talet: Naturligt användargränssnitt. Det naturliga användargränssnittet, eller NUI, känner av användarens kroppsrörelser och röstkommandon snarare än att kräva användning av inmatningsenheter som ett tangentbord eller pekskärm. Microsoft introducerade sitt Project Natal, senare benämnt Kinect, 2009. Kinect styr X-box 360-videospel-systemet.

Framtiden: Direkt hjärn-datorgränssnitt. Det ultimata datorgränssnittet skulle vara tankekontroll. På 1970-talet inleddes forskning om att kontrollera en dator med hjärnan. Invasiv BCI kräver att sensorer implanteras i hjärnan för att upptäcka tankeimpulser. Icke-invasiv BCI läser elektromagnetiska vågor genom skallen utan behov av implantat.

Pin
Send
Share
Send