1 / 17

Inspektion/ analytisk evaluering d. 13/2-08

Inspektion/ analytisk evaluering d. 13/2-08. ITU: Usability med projekt i brugercentreret design, forår 2008 v/ Egil Boisen. Evaluerings-’paradigmer’/ approaches. Usability testing

padma
Download Presentation

Inspektion/ analytisk evaluering d. 13/2-08

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Inspektion/ analytisk evaluering d. 13/2-08 ITU: Usability med projekt i brugercentreret design, forår 2008 v/ Egil Boisen

  2. Evaluerings-’paradigmer’/ approaches • Usability testing • Environment and format of testing is controlled by evaluator (typically in laboratory-like conditions); aim of quantfying users’ performance • Usability engineering: typisk ved senere faser af UI-design; navigation ift. typiske tasks ~ users’ needs • Field studies • Natural settings; aim of understanding what people naturally do and how products mediate their activities • Analytical evaluation • Inspections: heuristic inspection and walkthroughs • Both formative and summative • Predictive models (theory based): GOMS; Fitts’ Law

  3. Evaulation: Formative/ Summative • Formative: forholder sig brugernes behov • Summative: Forholder sig til standarder

  4. Usability studies: methods • Indirekte: • Spørgeskemaer, interviews, fokusgrupper, web-questionnaires osv. • Direkte, uden brugere [mest summative, eb] • A: Heuristisk evaluering/ Nielsens liste ... • B: ’Cognitive walkthrough’: at simulere kognitive processer ved typiske brugsforløb • C: Predictive models: GOMS; Fitts’ Law • Direkte, med brugere (user studies) [mest formative, eb] • D: usability testing v/ øvelser i laboratorium ’measuring performance’ • E: user testing v/ øvelser i laboratorium eller uformelt • E: Overvågning opsamling af bruger-problemer via web

  5. Aspekter af systemaccept • Social acceptability • Practical acceptability • Cost • Compatibility • Reliability • Usefulness - anvendelighed • Utility - faciliteter, funktionalitet • Usability- brugbarhed • easy to learn • efficient to use • easy to remember • few errors • subjective user satisfaction (Jakob Nielsen 1993)

  6. J. Nielsens 10 heuristikker • Visibility of system status: Hvor er jeg – og hvor kan jeg gå hen? • Match between system and the real world: tal brugerens sprog. • Support undo/ redo: ‘Home’-button, ‘ESC’, • Consistency/ Standards: brugeren skal have kontrol og frihed. • Error prevention: brugeren har altid ret! • Recognition rather than recall: vi kan dårligt huske kommandoer præcist • Flexibility and efficiency of use: ikoner + genvejstaster • Aesthetic and minimalist design: ‘Keep it simple - but not simpler!’ • Help users recognize, diagnose, and recover from errors • Help and documentation

  7. Ca. fem evaluatører er ofte nok Useit.com

  8. Ikke alle ‘eksperter’ er lige gode Useit.com

  9. Bailey (2001) HE missed 21% of user problems 43% were ’false alarms’ PRS, 701-2 Finder HI ’for mange’ fejl? Hvad vil det sige? Brugertestene fandt heller ikke alle HI’s ’fejl’ Heuristisk inspektion (HI) – diskussion • Biltest: EKSPERT-chauffører aflæser køreegenskaber ved at presse bilen ud i ekstreme situationer • Dramaturg: ’hvorfor’ fungerer et teaterstykke ikke? • Design = evolution? Nej!

  10. Generelle problemer for usability tests: for snævert fokus • afdækker en begrænset del af systemets funktionalitet, pga. testenes udstrækning i tid (Shneiderman). • fokuserer på førstegangsbrug (Shneiderman): men mange systemer skal bruges igen og igen.. • måske er det for høje/ forkerte krav at stille at det skal være tilgængeligt at bruge med det samme? • større funktionalitet gør et system mindre tilgængeligt, men det kan være besværet værd for den daglige bruger (Nielsen). • fokuserer på fejl (Nielsen): Problemet er her at man ved fejlretning kan komme til at ødelægge elementer af systemet som faktisk har været fordelagtige, fordi de ikke er blevet kommenteret.

  11. Category-specific heuristics • Nielsens klassiske liste kan være utilstrækkelig; kan tilvirkes med • Kontekst-specifik prioritering/ udvælgelse; tilføjelse af andre design guides lines; hensyn til markedsundersøgelser osv. • PRS: diskuterer eksempel indenfor health info • Nielsen: web ~ • trust; navigation (link-typer + site struktur og dybde); layout; teknologi; sprog; rammebevidsthed.

  12. Heuristisk evaluering: Fremgangsmåde • Tre stadier i HE: • Briefing af HCI-eksperter (bl.a. ud fra scripts/ typiske tasks) • Evaluering: 2 timer; 2 gennemløb • Diskussion af fejl + prioritering (severity rating) • Mål: liste over usability-problemer • Problemerne skal i fokus, ikke interface-elementerne: hvis et interface element har flere fejl skal alle disse fejl beskrives selvstændigt. • Næste fase: revider prototypen. • Her kan man holde møder mellem designteamet, eksperterne og brugerne: hvordan kommer vi videre, hvad var god og skidt og hvorfor. Også positive aspekter kommer på bordet.

  13. Molichs problemkategorier • Kosmetisk: Brugeren bliver forsinket i mindre end 1 minut, er lettere irriteret eller bliver konfronteret med information der i mindre grad afviger fra det forventede. • Alvorligt: Brugeren bliver forsinket i flere minutter, er meget irriteret eller bliver konfronteret med information fra systemet der i betydelig grad afviger fra det forventede. • Kritisk: Brugeren går fuldstændigt i stå og kan ikke komme videre uden hjælp; er stærkt irriteret; bliver konfronteret med information fra systemet der i kritisk grad afviger fra det forventede. (Katastrofe: hvis to brugere uafhængigt af hinanden oplever samme ‘kritiske’ problem).

  14. Øvelse: Heuristisk evaluering • Gå sammen to og to. Vælg et site at gennemgå ift. deres målsætning: • Tamigo; ITU; ProOffice • Diskuter og opstil heuristikker (5 – 10) • Beskriv 5 (typiske) user tasks • Analyser sitet og find fejl, individuelt. • Diskuter fejl med makker og angiv severity rating

  15. Øvelse: definér usability og user experience goals • I grupper på tre, vælg to af disse systemer: • Word processor; Mobil; iPod; Kampus.nu; DSB Rejseplanen; Amazon.com • For hvert af de to systemer: • Opstil key usability goals (rangordne listen) • Opstil key user experience goals (3 – 5) • Diskuter forskelle mellem de to systemer • Diskuter: Hvordan vil du/ I undersøge de fokale usability og user experience goals?

  16. Projektidéer (eb) • ITU • intranet/ mail ift. IT-universitets liv og formål • Tamigo – online vagtplaner • heuristisk analyse; brugertests; personaer; use cases. • problemorienterede vinkler: arbejde med fokus på medarbejderen/ afdelingen; knowledge management; workshop-afvikling (udvikling af undervisningsmateriale); adgang til Tamigo via mobil. • DSB Informatik • Indførsel af usability i organisationen DSB Informatik • ProOffice: • undervisning i offentlig administration i ELDH; portal; • hvordan kommunikere man så medarb kan håndtere info uden at miste modet.

  17. Generelt om projektvalg/ vejledning • Problemorienteret tilgang • Interaktive systemer • Brugercentreret design • I behøver ikke begrænse jer til usability-kursets redskaber • Akademisk refleksion: • Fokus på de gode spørgsmål og de grunde, ikke på det gode produkt (den gennemførte applikation)! • Lad jer ikke nøjes med at demonstrere konkret anvendelse af tilegnede redskaber! • Lad metode og teori være dybt integrerede ift. problemfelt og problemidentifikation! • Forhold dig til implicit dagsorden i dine redskaber.

More Related