Meta AI i Messenger - Brukervennlighet mot mørke mønstre

Tilbake

Meta har nylig rullet ut sin nye kunstige intelligens, Meta AI, i Messenger. Meta bruker dine samtaler og bilder i Messenger til å trene AI-en, og advarer selv mot å dele sensitiv informasjon. Denne implementeringen skaper frustrasjon på grunn av dårlig brukeropplevelse (UX) og bruk av mørke mønstre som gjør det vanskelig å deaktivere funksjonen. Dette er dessverre en kjent taktikk fra Meta; å gjøre det vanskelig å velge bort (opt-out) datainnsamling i produktene deres.

Skrevet av:
Anna Steinsund
,
Senior UX-konsulent

Hva er Meta AI i Messenger?

Meta AI er designet for å være en intelligent assistent integrert direkte i chat-opplevelsen din. Den kan svare på spørsmål, generere bilder, foreslå svar, og til og med oppsummere samtaler. Målet er å gjøre kommunikasjonen mer effektiv og interaktiv. På papiret høres dette ut som en spennende utvikling, men i praksis har mange brukere opplevd det som påtrengende og unødvendig.

Problemet med UX: Påtrengende og uønsket

En av hovedutfordringene med Meta AI er måten den er integrert på. Den dukker ofte opp uoppfordret i søkefeltet, under innlegg i nyhetsfeeden, og til og med som en egen chat i Messenger. Dette skaper en følelse av påtvungen adopsjon, hvor brukere blir eksponert for AI-en selv om de ikke har bedt om det eller ønsker å bruke den.

Søkefeltet: Meta AI har tatt plassen til det vanlige søkefeltet, noe som kan forvirre brukere som bare ønsker å søke etter venner eller innhold. For å utføre et vanlig søk, må man ofte trykke ekstra forbi AI-forslagene.

Nyhetsfeeden: AI-en kan dukke opp under innlegg og tilby å gi mer informasjon, noe som oppleves som distraherende og irrelevant for mange.

Meldinger: I Messenger kan Meta AI vises som en samtale, ofte festet øverst, og tilby seg å hjelpe til. Dette kan føles som om en uønsket tredjepart er til stede i private samtaler.

Dette konstante nærværet forstyrrer den flyten brukere er vant til, og underminerer selve konseptet med god UX, som skal gjøre digitale produkter intuitive og friksjonsfrie.

Kampen for å slå av AI-en

Enda mer problematisk er Metas implementering av det som kalles mørke mønstre for å gjøre det vanskelig, om ikke umulig, å slå av Meta AI fullstendig. Mørke mønstre er designvalg som bevisst manipulerer brukere til å ta beslutninger de ellers ikke ville tatt, ofte til fordel for selskapet.

Når det gjelder Meta AI, inkluderer dette:

Ingen enkel "slå av"-knapp: Det finnes ingen intuitiv "slå av"-knapp for Meta AI på tvers av plattformene. Brukere må ofte grave dypt i innstillinger, og selv da er alternativene begrenset.

Muting i stedet for deaktivering: I mange tilfeller er det eneste alternativet å "dempe" AI-en for en viss periode, eller "til jeg endrer det". Dette er ikke en permanent løsning, og gir inntrykk av at AI-en fortsatt er aktiv i bakgrunnen.

Omveier og komplekse trinn: Prosessen for å begrense Meta AI innebærer ofte flere trinn og navigering gjennom ulike menyer (f.eks. via personverninnstillinger, deretter spesifikke AI-innstillinger, og så videre), noe som er frustrerende og tidkrevende.

"Opt-out" som er vanskelig å finne: For å unngå at dataene dine brukes til AI-trening, må man aktivt finne og fylle ut et "opt-out"-skjema i Metas personvernssenter, noe som er langt fra åpenbart. Dette krever at brukeren selv oppsøker denne informasjonen, i stedet for å bli tilbudt et tydelig valg fra start. I Messenger er prosessen spesielt kronglete: brukeren må gå inn på hver enkelt samtale, videre inn til valgene man får når man klikker på navnet til de man chatter med, gå ned til "Meldingstillatelser" (som sier lite om at man her kun finner innstillingen for å skru av at man deler alle meldinger og bilder med AI) og skru av delingen der.

Mangel på slutt-til-slutt-kryptering i AI-samtaler: Noen rapporter har pekt på at meldinger med Meta AI ikke er ende-til-ende-kryptert, i motsetning til vanlige Messenger-samtaler. Dette reiser betydelige personvernhensyn, da det kan bety at Meta kan få tilgang til innholdet i disse interaksjonene.

Disse mørke mønstrene skaper en følelse av at Meta bevisst gjør det vanskelig for brukere å ha full kontroll over sin egen opplevelse og sine data.

Hvorfor er dette et problem?

Bruken av mørke mønstre for å presse brukere til å akseptere AI-integrasjon er problematisk på flere nivåer:

Personvern: AI-systemer trenger store mengder data for å fungere og forbedre seg. Hvis brukere ikke enkelt kan velge bort eller begrense AI-en, kan deres interaksjoner og data bli brukt til AI-trening uten deres fulle og informerte samtykke. Dette gjelder spesielt for private samtaler, der personvernsforventningene er høye. Metas egen advarsel om å ikke dele sensitiv informasjon i AI-chatter understreker alvoret i dette.

Brukertillit: Når selskaper bruker manipulerende design, eroderer det tilliten mellom bruker og plattform. Brukere føler seg ikke respektert eller verdsatt når de må kjempe for å kontrollere sin egen opplevelse.

Digital velvære: Konstant eksponering for uønskede funksjoner kan bidra til digital overbelastning og stress, noe som reduserer den generelle brukeropplevelsen.

Etikk i AI-utvikling: Dette reiser etiske spørsmål rundt hvordan AI-teknologi integreres i eksisterende produkter. En ansvarlig tilnærming krever åpenhet, informert samtykke og enkle opt-out-muligheter.

Veien videre

For at Meta AI skal bli en genuint nyttig funksjon, må Meta prioritere transparens og brukerkontroll. Det betyr:

Enkel og tydelig opt-out: Gi brukerne en enkel og permanent måte å slå av Meta AI på, med en klar og lett tilgjengelig "slå av"-knapp.

Informert samtykke: Sørg for at brukere fullt ut forstår hvordan AI-en fungerer, hvilke data den samler inn, og hvordan dataene brukes, før de aktiverer den. Dette inkluderer tydelig informasjon om bruk av samtaler og bilder til trening.

Respekt for brukerens valg: Unngå påtrengende integrasjoner og respekter brukernes preferanser. AI-en bør være et valgfritt verktøy, ikke en standardinnstilling som er vanskelig å unngå.

Først da kan Meta AI oppfattes som en genuin forbedring og ikke en påtvungen funksjon som undergraver brukeropplevelsen og personvernet.