3 Chatbot-privatlivsrisici og -bekymringer, du bør kende til

Chatbots har eksisteret i årevis, men fremkomsten af ​​store sprogmodeller, såsom ChatGPT og Google Bard, har givet chatbot-industrien et nyt liv.

Millioner af mennesker bruger nu AI-chatbots over hele verden, men der er nogle vigtige privatlivsrisici og bekymringer at huske på, hvis du vil prøve et af disse værktøjer.

1. Dataindsamling

De fleste mennesker bruger ikke chatbots bare for at sige hej. Moderne chatbots er designet til at behandle og svare på komplekse spørgsmål og anmodninger, hvor brugere ofte inkluderer en masse information i deres prompter. Selvom du kun stiller et simpelt spørgsmål, vil du ikke rigtig have, at det går ud over din samtale.

Ifølge OpenAI’s supportsektion, kan du slette ChatGPT-chatlogfiler, når du ønsker det, og disse logfiler vil derefter blive permanent slettet fra OpenAI’s systemer efter 30 dage. Virksomheden vil dog beholde og gennemgå visse chatlogs, hvis de er blevet markeret for skadeligt eller upassende indhold.

En anden populær AI-chatbot, Claude, holder også styr på dine tidligere samtaler. Anthropics støttecenter udtaler, at Claude sporer “dine prompter og output i produktet for at give dig en ensartet produktoplevelse over tid i overensstemmelse med dine kontroller.” Du kan slette dine samtaler med Claude, så den glemmer, hvad du har talt om, men det betyder ikke, at Anthropic straks vil slette dine logfiler fra sine systemer.

Dette rejser selvfølgelig spørgsmålet: bliver mine data opbevaret eller ej? Bruger ChatGPT eller andre chatbots mine data?

Men bekymringerne stopper ikke her.

Hvordan lærer ChatGPT?

For at give information trænes store sprogmodeller med enorme mængder data. Ifølge Videnskabsfokus, ChatGPT-4 alene blev fodret med 300 milliarder ord med information i løbet af sin træningsperiode. Dette er ikke taget direkte fra nogle få encyklopædier. Chatbot-udviklere bruger derimod masser af information fra internettet til at træne deres modeller. Dette kan omfatte data fra bøger, film, artikler, Wikipedia-indlæg, blogindlæg, kommentarer og endda anmeldelseswebsteder.

Husk, at afhængigt af en chatbot-udviklers privatlivspolitik, kan nogle af de førnævnte kilder muligvis ikke bruges til træning.

Mange har kritiseret ChatGPT og hævdet, at det er noget af et mareridt i forhold til privatlivets fred, at ChatGPT ikke kan stole på. Så hvorfor er dette tilfældet?

Det er her, tingene bliver lidt slørede. Hvis du spørger ChatGPT-3.5 direkte, om den har adgang til produktanmeldelser eller artikelkommentarer, får du et klart negativt svar. Som du kan se på skærmbilledet nedenfor, angiver GPT-3.5, at den ikke fik adgang til brugerartiklers kommentarer eller produktanmeldelser i sin træning.

Tværtimod blev det trænet ved at bruge “en bred vifte af tekst fra internettet, herunder websteder, bøger, artikler og andet offentligt tilgængeligt skriftligt materiale indtil september 2021.”

Men er tilfældet det samme for GPT-4?

Da vi spurgte GPT-4, fik vi at vide, at “OpenAI ikke brugte specifikke brugeranmeldelser, personlige data eller artikelkommentarer” i chatbottens træningsperiode. Derudover fortalte GPT-4 os, at dets svar er genereret fra “mønstre i dataene [it] blev trænet i, som primært består af bøger, artikler og anden tekst fra internettet.”

Da vi undersøgte yderligere, hævdede GPT-4, at bestemt indhold på sociale medier kan være inkluderet i dets træningsdata, men skaberne vil altid forblive anonyme. GPT-4 erklærede specifikt, at “Selvom indholdet fra platforme som Reddit var en del af træningsdataene, [it doesn’t] har adgang til specifikke kommentarer, indlæg eller andre data, der kan linkes tilbage til en individuel bruger.”

En anden bemærkelsesværdig del af GPT-4s svar er som følger “OpenAI har ikke eksplicit angivet alle anvendte datakilder.” Selvfølgelig ville det være svært for OpenAI at liste kilder til en værdi af 300 milliarder ord, men det giver plads til spekulationer.

I en Ars Technica artikel, blev det anført, at ChatGPT indsamler “personlige oplysninger opnået uden samtykke.” I samme artikel blev kontekstuel integritet nævnt, et begreb, der henviser til kun at bruge en persons information i den kontekst, den oprindeligt blev brugt. Hvis ChatGPT bryder denne kontekstuelle integritet, kan folks data være i fare.

Et andet problem her er OpenAI’s overholdelse af den generelle databeskyttelsesforordning (GDPR). Dette er en forordning håndhævet af EU for at beskytte borgernes data. Forskellige europæiske lande, herunder Italien og Polen, har iværksat undersøgelser af ChatGPT på grund af bekymringer omkring overholdelse af GDPR. I en kort periode var ChatGPT endda forbudt i Italien på grund af bekymringer om privatlivets fred.

OpenAI har tidligere truet med at trække sig ud af EU på grund af planlagte AI-regler, men dette er siden blevet trukket tilbage.

ChatGPT er muligvis den største AI-chatbot i dag, men chatbot-privatlivsproblemer starter og slutter ikke hos denne udbyder. Hvis du bruger en lyssky chatbot med en mangelfuld privatlivspolitik, kan dine samtaler blive misbrugt, eller meget følsomme oplysninger kan blive brugt i dens træningsdata.

2. Datatyveri

Som ethvert onlineværktøj eller -platform er chatbots sårbare over for cyberkriminalitet. Selv hvis en chatbot gjorde alt, hvad den kunne for at beskytte brugere og deres data, er der altid en chance for, at en dygtig hacker kan infiltrere sine interne systemer.

Hvis en given chatbot-tjeneste lagrede dine følsomme oplysninger, såsom betalingsoplysninger for dit premium-abonnement, kontaktdata eller lignende, kunne dette blive stjålet og udnyttet, hvis der skulle ske et cyberangreb.

Dette gælder især, hvis du bruger en mindre sikker chatbot, hvis udviklere ikke har investeret i tilstrækkelig sikkerhedsbeskyttelse. Ikke alene kan virksomhedens interne systemer blive hacket, men din egen konto har også en chance for at blive kompromitteret, hvis den ikke har login-alarmer eller et autentificeringslag.

Nu hvor AI-chatbots er så populære, er cyberkriminelle naturligvis strømmet til at bruge denne industri til deres svindel. Falske ChatGPT-websteder og plugins har været et stort problem, siden OpenAI’s chatbot ramte mainstream i slutningen af ​​2022, hvor folk faldt for svindel og forærede personlige oplysninger væk under dække af legitimitet og tillid.

I marts 2023 rapporterede MUO om en falsk ChatGPT Chrome-udvidelse, der stjal Facebook-login. Pluginnet kunne udnytte en Facebook-bagdør til at hacke højprofilerede konti og stjæle brugercookies. Dette er blot et eksempel på adskillige falske ChatGPT-tjenester designet til at lure uvidende ofre.

3. Malware-infektion

Hvis du bruger en lyssky chatbot uden at være klar over det, kan du finde chatbotten, der giver dig links til ondsindede websteder. Måske har chatbotten advaret dig om en fristende giveaway eller givet en kilde til en af ​​dens udtalelser. Hvis operatørerne af tjenesten har ulovlige hensigter, kan hele pointen med platformen være at sprede malware og svindel via ondsindede links.

Alternativt kan hackere kompromittere en legitim chatbot-tjeneste og bruge den til at sprede malware. Hvis denne chatbot tilfældigvis er meget mennesker, vil tusinder eller endda millioner af brugere blive udsat for denne malware. Falske ChatGPT-apps har endda været i Apple App Store, så det er bedst at træde varsomt.

Generelt bør du aldrig klikke på nogen af ​​de links, en chatbot leverer, før du kører den gennem et link-tjek-websted. Dette kan virke irriterende, men det er altid bedst at være sikker på, at det websted, du bliver ledt til, ikke har et ondsindet design.

Derudover bør du aldrig installere nogen chatbot-plugins og -udvidelser uden først at bekræfte deres legitimitet. Lav lidt research omkring appen for at se, om den er blevet godt anmeldt, og kør også en søgning hos appens udvikler for at se, om du finder noget lyssky.

Chatbots er ikke uigennemtrængelige for privatlivsproblemer

Som de fleste online værktøjer i dag, er chatbots gentagne gange blevet kritiseret for deres mulige sikkerheds- og privatlivsfælder. Uanset om det er en chatbot-udbyder, der skærer hjørner, når det kommer til brugersikkerhed, eller de løbende risici for cyberangreb og svindel, er det afgørende, at du ved, hvad din chatbot-tjeneste samler på dig, og om den har anvendt tilstrækkelige sikkerhedsforanstaltninger.