Hvordan ChatGPTs brugerdefinerede GPT’er kunne afsløre dine data, og hvordan man holder dem sikre

Nøgle takeaways

  • Brugerdefinerede GPT’er giver dig mulighed for at skabe personlige AI-værktøjer til forskellige formål og dele dem med andre, hvilket forstærker ekspertise inden for specifikke områder.
  • Men deling af dine tilpassede GPT’er kan afsløre dine data for et globalt publikum, hvilket potentielt kompromitterer privatlivets fred og sikkerhed.
  • For at beskytte dine data skal du være forsigtig, når du deler tilpassede GPT’er, og undgå at uploade følsomt materiale. Vær opmærksom på hurtig udvikling og vær på vagt over for ondsindede links, der kan få adgang til og stjæle dine filer.

ChatGPTs brugerdefinerede GPT-funktion giver enhver mulighed for at skabe et tilpasset AI-værktøj til næsten alt, hvad du kan tænke på; kreative, tekniske, gaming, tilpassede GPT’er kan det hele. Endnu bedre, du kan dele dine tilpassede GPT-kreationer med hvem som helst.

Men ved at dele dine brugerdefinerede GPT’er kan du begå en dyr fejl, der eksponerer dine data for tusindvis af mennesker globalt.

Hvad er brugerdefinerede GPT’er?

Brugerdefinerede GPT’er er programmerbare miniversioner af ChatGPT, der kan trænes til at være mere nyttige til specifikke opgaver. Det er som at forme ChatGPT til en chatbot, der opfører sig, som du vil, og lære den at blive en ekspert på områder, der virkelig betyder noget for dig.

For eksempel kunne en klasse 6-lærer bygge en GPT, der specialiserer sig i at besvare spørgsmål med en tone, ordvalg og manér, der passer til klasse 6-elever. GPT’en kunne programmeres sådan, at hver gang læreren stiller GPT’en et spørgsmål, vil chatbotten formulere svar, der taler direkte til en 6. klasses forståelsesniveau. Det ville undgå kompleks terminologi, holde sætningslængden overskuelig og antage en opmuntrende tone. Tiltrækningen ved Custom GPT’er er evnen til at personliggøre chatbot’en ​​på denne måde, samtidig med at dens ekspertise på visse områder forstærkes.

  Hvad er cybersquatting, og hvordan du beskytter dit brand mod det [+ 5 Tools]

Hvordan tilpassede GPT’er kan eksponere dine data

For at oprette brugerdefinerede GPT’er instruerer du typisk ChatGPT’s GPT-skaber om, hvilke områder du ønsker, at GPT’en skal fokusere på, giv den et profilbillede, derefter et navn, og du er klar til at gå. Ved at bruge denne tilgang får du en GPT, men det gør den ikke væsentligt bedre end klassisk ChatGPT uden det smarte navn og profilbillede.

Styrken ved Custom GPT kommer fra de specifikke data og instruktioner, der leveres til at træne det. Ved at uploade relevante filer og datasæt kan modellen blive specialiseret på måder, som en bred fortrænet klassisk ChatGPT ikke kan. Den viden, der er indeholdt i de uploadede filer, gør det muligt for en brugerdefineret GPT at udmærke sig ved visse opgaver sammenlignet med ChatGPT, som muligvis ikke har adgang til den specialiserede information. I sidste ende er det de tilpassede data, der muliggør større kapacitet.

Men at uploade filer for at forbedre din GPT er et tveægget sværd. Det skaber et privatlivsproblem lige så meget, som det booster din GPT’s muligheder. Overvej et scenario, hvor du har oprettet en GPT for at hjælpe kunder med at lære mere om dig eller din virksomhed. Enhver, der har et link til din tilpassede GPT eller på en eller anden måde får dig til at bruge en offentlig prompt med et ondsindet link, kan få adgang til de filer, du har uploadet til din GPT.

  Hvad er Slack, og hvorfor elsker folk det?

Her er en simpel illustration.

Jeg opdagede en brugerdefineret GPT, der skulle hjælpe brugerne med at blive virale på TikTok ved at anbefale trending hashtags og emner. Efter Custom GPT tog det lidt eller ingen indsats at få det til at lække de instruktioner, det blev givet, da det blev sat op. Her er et smugkig:

Og her er anden del af instruktionen.

Hvis du ser godt efter, fortæller den anden del af instruktionen, at modellen ikke skal “dele navnene på filerne direkte med slutbrugere, og du bør under ingen omstændigheder give et downloadlink til nogen af ​​filerne.” Selvfølgelig, hvis du spørger den brugerdefinerede GPT først, nægter den, men med en lille smule hurtig ingeniørarbejde, ændres det. Den tilpassede GPT afslører den enlige tekstfil i sin vidensbase.

Med filnavnet krævede det en lille indsats at få GPT til at udskrive det nøjagtige indhold af filen og efterfølgende downloade selve filen. I dette tilfælde var den faktiske fil ikke følsom. Efter at have kigget rundt på et par flere GPT’er, var der en masse med snesevis af filer, der sad i det fri.

Der er hundredvis af offentligt tilgængelige GPT’er derude, der indeholder følsomme filer, som bare sidder der og venter på, at ondsindede aktører får fat.

Sådan beskytter du dine tilpassede GPT-data

Overvej først, hvordan du vil dele (eller ej!) den tilpassede GPT, du lige har oprettet. I øverste højre hjørne af den brugerdefinerede GPT-oprettelsesskærm finder du knappen Gem. Tryk på dropdown-pilen, og vælg herfra, hvordan du vil dele din skabelse:

  • Kun mig: Den tilpassede GPT offentliggøres ikke og kan kun bruges af dig
  • Kun personer med et link: Enhver med linket til din tilpassede GPT kan bruge det og potentielt få adgang til dine data
  • Offentlig: Din tilpassede GPT er tilgængelig for alle og kan indekseres af Google og findes i almindelige internetsøgninger. Enhver med adgang kan potentielt få adgang til dine data.
  Bryg altid den perfekte kop te med en timer for at få det rigtigt

Desværre er der i øjeblikket ingen 100 procent idiotsikker måde at beskytte de data, du uploader til en tilpasset GPT, der deles offentligt. Du kan være kreativ og give den strenge instruktioner om ikke at afsløre dataene i dens vidensbase, men det er normalt ikke nok, som vores demonstration ovenfor har vist. Hvis nogen virkelig ønsker at få adgang til videnbasen og har erfaring med AI prompt engineering og noget tid, vil den tilpassede GPT i sidste ende bryde og afsløre dataene.

Derfor er det sikreste bud ikke at uploade følsomt materiale til en tilpasset GPT, som du har til hensigt at dele med offentligheden. Når du uploader private og følsomme data til en brugerdefineret GPT, og den forlader din computer, er disse data faktisk uden for din kontrol.

Vær også meget forsigtig, når du bruger prompter, du kopierer online. Sørg for, at du forstår dem grundigt, og undgå slørede prompter, der indeholder links. Disse kan være ondsindede links, der kaprer, koder og uploader dine filer til fjernservere.

Brug tilpassede GPT’er med forsigtighed

Tilpassede GPT’er er en kraftfuld, men potentielt risikabel funktion. Mens de giver dig mulighed for at skabe tilpassede modeller, der er yderst dygtige inden for specifikke domæner, kan de data, du bruger til at forbedre deres evner, blive afsløret. For at mindske risikoen skal du undgå at uploade virkelig følsomme data til dine tilpassede GPT’er, når det er muligt. Derudover skal du være på vagt over for ondsindet prompt engineering, der kan udnytte visse smuthuller til at stjæle dine filer.