Spørsmålet mange stiller er direkte og relevant: Har politiet tilgang til ChatGPT-samtalene mine? eller med andre deltakere, som f.eks. Gemini på AndroidMed millioner av mennesker som bruker disse tjenestene som om de var digitale fortrolige for å lufte ut sine følelser, be om råd eller til og med snoke i sensitive emner, er det ikke rart at angsten har skutt i været.
Debatten har eskalert etter virale tilfeller og kunngjøringer fra teknologiselskapene selvPå den ene siden minner spanske juridiske eksperter oss på hva som er og ikke er tillatt her under loven. På den andre siden har OpenAI detaljert at overvåker og gjennomgår samtaler i møte med alvorlige risikoer Og i ekstreme situasjoner kan det varsle myndighetene. Innimellom gjenstår den evige balansegangen mellom personvern og sikkerhet.
Den virale videoen som tente lunten
På TikTok delte skaperen @_mabelart en storytime der hun hevdet at politiet hadde innkalt og avhørt henne. for søkene og samtalene deres på ChatGPTHun fortalte at hun, som en kriminalforbryter, hadde stilt chatboten rå spørsmål som Hvor lang tid tar det for en kropp å løse seg opp i syre? Hvordan fjerner man DNA fra et åsted? eller hva som ville skje med å begrave et lik i en skogIfølge hans beretning mottok han snart en melding fra retten om å vitne.
Historien utløste alle slags kommentarer. Noen tok det bokstaveligNoen stilte spørsmål ved det, andre gjorde det, og hovedpersonen selv presiserte at det kunne være en del av et spill med samfunnet hennes. Utover sannferdigheten i den spesifikke saken, tjente videoen til å reise det viktigste spørsmålet: Har myndighetene tilgang til det vi diskuterer med en AI? Som ChatGPT eller Gemini?
Hva kan og hva kan ikke politiet i Spania gjøre med chattene dine på ChatGPT?
Advokat Jesús P. López Pelaz, grunnlegger og direktør for Bufete Abogado Amigo, er klar: Politimyndigheter kan ikke direkte «gå inn» i chattene dine med ChatGPT eller andre språkmodeller. Hvis du ønsker å innhente informasjon, må du følge spesifikke kanaler og garantier.
Ifølge denne eksperten, Det finnes to mulige måter å få tilgang til informasjon relatert til samhandlingene dine med AI, alltid med juridisk støtte:
- Logger på din egen enhet (datamaskin eller mobil): de trenger ditt samtykke eller en rettskjennelse for å ransake, og det er greit å vite hvordan begrense tilgangen til bestemte chatter.
- Logger på leverandørens servere (internettleverandøren eller AI-selskapet): en rettskjennelse rettet mot selskapet er nødvendig for å utlevere disse dataene.
Det er viktig å understreke at i begge tilfeller vil den typiske tilgangen være å opptegnelser eller spor (logger) knyttet til aktiviteten, ikke bare å lese «alle samtalene dine i sin helhet» som om det var en personlig chat. Det kreves en spesifikk tillatelse.og dessuten er det i praksis nødvendig å samle tilstrekkelig bevis for en forbrytelse å begrunne tiltaket for en dommer.
Når leverandøren befinner seg i utlandet, blir ting komplisert: En spansk rettskjennelse er ikke nok.Det må meddeles myndighetene i det aktuelle landet (ofte USA), som vil vurdere om forespørselen er passende, berettiget, forholdsmessig og basert på solid bevis. Internasjonalt samarbeid og tidsfrister De er derfor en relevant faktor.

Er dette en «privat kommunikasjon» som en prat mellom mennesker?
Det juridiske skillet er betydelig. López Pelaz påpeker at Å samhandle med en AI er mer som et internettsøk. enn en beskyttet samtale mellom to individer. Det vil si at den ikke klassifiseres på samme måte som privat kommunikasjon mellom personer med tanke på kommunikasjonskonfidensialitet. Hva du gjør med en chatbot Det regnes som en informasjonssamfunnstjeneste: du sender en forespørsel og mottar et automatisk svar.
Inkognitomodus og sletting av historikk: hva du skal gjøre og hva du ikke skal gjøre
En annen vanlig misforståelse: Bruk inkognitomodus eller tøm nettleserloggen din. Det gjør ikke samhandlingene dine usynlige for en leverandør. Det forhindrer at nettlesing lagres på enheten din, men Den sletter ikke poster på selskapets servere.Med en rettskjennelse kan etterforskere be om denne informasjonen fra leverandøren, uavhengig av om du ingen spor vises i nettleseren dinFor å forbedre beskyttelsen din, se veiledninger om personvern og sikkerhet.
NÃ¥r kan myndighetene vurdere samhandlingene dine?
Teoretiske scenarier er begrensede og krever en juridisk vei. I hovedsak finnes det to mulige scenarier nevnt av eksperter når de diskuterer politiets tilgang:
- NÃ¥r det foreligger en uttrykkelig rettslig fullmakt som motiverer tilgang til disse dataene.
- For å forhindre at en forbrytelse blir begått i det øyeblikket dersom en reell og overhengende risiko er bevist, innenfor gjeldende rettslig rammeverk.
Selv i så fall, Det innebærer ikke åpen bar eller masseovervåking.Dette er spesifikke, berettigede og rettslig kontrollerte prosedyrer som også kan kreve samarbeid med utenlandske myndigheter når selskapet som oppbevarer registrene opererer utenfor Spania.
Hva sier OpenAI om å gjennomgå samtaler på ChatGPT og varsle politiet?
Parallelt med det juridiske rammeverket har OpenAI forklart på nettsiden sin at for å håndtere alvorlige risikoer og skadelig atferdSystemene deres kan automatisk analysere meldinger og omdirigere visse samtaler til spesialiserte «kanaler»I den prosessen gjennomgår et lite, trent team innholdet og kan iverksette tiltak.
Selskapet beskriver at hvis Menneskelige anmeldere oppfatter en overhengende trussel om alvorlig fysisk skade på tredjeparterDe kunne henvise saken til politiet. Dette betyr ikke at det finnes en direkte, permanent linje til politiet, men snarere at Det finnes et tidligere menneskelig filter. før noen form for varsel. Videre vurderer selskapet tiltak som suspensjon eller forbud av kontoer når den oppdager alvorlige brudd på bruksreglene.
I denne policyen oppgir OpenAI at de analyserer og modererer interaksjoner knyttet til blant annet følgende områder:
- Selvskading eller selvmord (med inneslutnings- og henvisningsprotokoller for å støtte ressurser, uten å henvise til politiet foreløpig).
- Utvikling eller bruk av våpen og planlegging for skader på tredjeparter.
- Å skade andre mennesker eller ødelegge eiendom.
- Uautoriserte aktiviteter som bryter med sikkerheten av tjenester eller systemer.
OpenAI har indikert at «foreløpig» Det er ikke snakk om å henvise saker om selvskading til politiet. å respektere brukernes personvern i spesielt sensitive sammenhenger. I stedet, de prøver å tilby støtteStøttemeldinger og henvisninger til hjelpetelefoner og spesialiserte organisasjoner. Dette viser et tydelig skille: Det høyeste alarmnivået fokuserer på overhengende skade på tredjeparter.
Slik fungerer gjennomgangen: automatisering, menneskelig team og varslingsterskel
Prosessen starter, ifølge selskapet, med en automatisert skanning for risikoindikatorerHvis signaler dukker opp, blir samtalen «rutet» internt slik at et lite spesialisert team Vurder om situasjonen er reell, nært forestående og alvorlig. På det tidspunktet kan de for eksempel avbryte tjenesten, blokkere kontoen, eller, under spesielle omstendigheter, kontakt myndighetene dersom faren for tredjeparter er overhengende.
OpenAI erkjenner begrensninger: ytelsen til disse sikkerhetstiltakene Den lider under lange samtaler og er under kontinuerlig evaluering. Selskapet innrømmer også at Deres interne kriterier blir ikke alltid offentliggjort i detalj. og at de jobber med å styrke disse protokollene uten å gjøre produktet til en påtrengende overvåkingsmekanisme.
Hvis en menneskelig gransker konkluderer med at det foreligger en overhengende og alvorlig trussel mot andre menneskerSelskapet forklarer i dokumentasjonen sin at samtalen kan bli eskalert til relevante myndigheter.
Personvern vs. sikkerhet: spenninger, kritikk og åpne spørsmål
Denne tilnærmingen er kontroversiell fordi den berører en følsom nerve: hvordan beskytte liv og sikkerhet i møte med planer om alvorlig skade, uten å gjøre bruken av en chatbot til en ukontrollert overføring av personvernEnkelte analytikere har påpekt at OpenAIs tradisjonelle diskurs om chatkonfidensialitet kolliderer med ideen om å gjennomgå og om nødvendig formidle informasjon til politiet ChatGPT står overfor overhengende trusler. Det er en spenning som selskapet prøver å rettferdiggjøre basert på kriterier som proporsjonalitet og sikkerhet.
Denne utviklingen kommer også etter medieepisoder og klager knyttet til psykisk helseDet har blitt publisert rapporter om brukere som, påvirket av den overbevisende tonen i AI, angivelig har gått så langt som å psykotiske tilstander, selvskading og til og med selvmord (noen rapporter kalte det «AI-psykose»). I mellomtiden er det anlagt søksmål i saken om en 16-åring hvis foreldre anklager selskapet for uaktsomt drap ved å argumentere for at systemet tilbød skadelige responser uten å aktivere tilstrekkelige nødtiltak.
OpenAI har på sin side justert verktøyene sine siden 2023 slik at Ikke del innhold som viser selvskading og i stedet henvise dem til støtteressurser, vise empati og fraråde skadelig atferd. Likevel, spesifiserer ikke offentlig alle terskler som utløser en menneskelig gjennomgang eller varsling til politiet, og som etterlater rimelig tvil om det faktiske omfanget og hyppigheten av disse handlingene.
Hva om jeg tilstår en forbrytelse i en chat med AI?
Et tilbakevendende spørsmål er om selskapet er «forpliktet» til å automatisk varsle politiet når en bruker innrømmer en forbrytelse eller planlegger en. Svaret, slik det er formulert av OpenAI, er mer nyansert: Det finnes ingen automatisk, blind kanal.Det er overvåking, et menneskelig vurderingstrinn, og bare hvis det observeres overhengende og alvorlig trussel mot tredjeparter, kan det rapporteres til myndighetene. Utenfor denne terskelen er selskapet avhengig av sin vilkår for bruk og i gjeldende lov å avgjøre hva som skal gjøres i hvert enkelt tilfelle.
I personvernerklæringen sin gjør OpenAI det klart at de kan dele informasjon med myndighetene eller tredjeparter hvis det kreves ved lov eller når det er god tro oppdage eller forhindre svindel eller annen ulovlig aktivitetfor å beskytte sikkerheten og integriteten til sine produkter, ansatte, brukere eller offentligheten, eller å beskytte seg mot juridisk ansvarMed andre ord finnes det et selskapsrettslig grunnlag for samarbeid når en dommer ber om det, eller når visse omstendigheter oppstår. risikoer og juridiske forpliktelser.
Etter å ha flyttet til Spania, til tross for at det finnes en policy for samarbeid mellom bedrifter, Sikkerhetsstyrker trenger rettslig autorisasjon å be om data fra leverandøren, og hvis leverandøren befinner seg utenfor landet, er det nødvendig Internasjonalt samarbeidVage mistanker er ikke nok: bevis må fremlegges, proporsjonalitet og nødvendigheten av aktsomhet.
Hva skiller ChatGPT fra apper med ende-til-ende-kryptering?
Mange meldingsapper med end-to-end-kryptering De skryter av at ikke engang de kan lese innholdet. Likevel, med en rettskjennelseDe kan bli tvunget til å oppgi visse metadata eller annen tilgjengelig informasjon. Når det gjelder ChatGPT og lignende tjenester, Det særegne er at selskapet bekrefter en tidligere vurdering. av sine ansatte for å vurdere risikoer før de om nødvendig gir data til myndighetene. Dette betyr ikke fullstendig overvåking, men det gjør det en eksplisitt policy for moderering og eskalering basert på sin interne vurdering.
Produkteksperters og lederes rolle
Selv innenfor bransjen finnes det stemmer som maner til forsiktighet. Posisjoner som den til Nick Turley, leder av ChatGPTerkjenner at det fortsatt er mangler i modellene for håndtering av komplekse emosjonelle problemerDen ærligheten forsterker ideen om at vi ikke bør bruke AI som erstatning for fagfolk i spørsmål om psykisk helse eller som rådgiver for problemer som kan sette oss eller andre i fare.
Assistent eller sikkerhetsvakt? Vinkelen med digital overvåking
Noen teknologer, som f.eks. Alan DaitchDe har popularisert ideen om at «ChatGPT ringer politiet» ​​hvis du snakker med dem om å begå visse forbrytelser på sosiale medier, selv om de presiserer at Jeg ville ikke gjort det samme med selvskading på grunn av en logikk om å beskytte individuelt personvern. De påpeker også at modellene er trent siden 2023 til ikke å gi veiledning om selvskading og at selskapet innrømmer at sikkerhetstiltakene fortsatt er ufullkomne. I denne sammenhengen, Det oppstår kritikk angående den mulige tendensen til overvåking. og for de mulige «første tilfellene» av alvorlige forbrytelser i «medvirkning» til chatboter, selv om verifiserbare eksempler sjelden gis.
OpenAI insisterer på at Deres automatiserte handlinger og protokoller er under kontinuerlig evalueringog at det trenger forbedring, spesielt i lange samtaler, der systemet kan gå glipp av signaler. Grensen mellom akkompagnement og overvåking Det har blitt mer delikat enn noensinne: verktøyet reagerer ikke bare, men også observerer mønstre, tolker signaler og handler noen ganger.
Praktiske spørsmål og rimelige grenser
Utover støyen er det best å fokusere på det praktiske: i Spania, Politiet kan ikke lese ChatGPT-chattene dine «bare fordi».De kan heller ikke bare ringe OpenAI og forvente at de skal gi dem videre. De trenger rettslig autorisasjontilstrekkelig motivasjon, klare indikasjoner og, der det er aktuelt, internasjonal behandlingFra leverandørens perspektiv, anmeldelsen finnesDen aktiveres ved visse risikoer, og ved overhengende fare for andre kan det føre til varsling til myndighetene.
Hva med inkognitomodus? Den fjerner bare spor på enheten dinOg hva med å slette historikken? Det samme gjelder: Den berører ikke det som er igjen på serverneHva om jeg tilstår en forbrytelse? Det vil avhenge av innholdet, risikoen den representerer og interne retningslinjer og lovenDet er ingen automatisk rød knapp, men det er heller ikke noe hvitt kort: Det finnes menneskelige filtre og alvorlighetsgrenser.
Viktige punkter for brukere som ønsker trygghet når de bruker ChtGPT
Du trenger ikke å leve med paranoia, men du må... dømmekraft og sunn fornuftBruk AI til det den gjør best (informasjon, skriving, produktivitetsstøtte) og unngå å behandle den som en skriftestolHvis du er bekymret for personvernet ditt, kan du sjekke historikkalternativer av tjenesten du bruker, les (selv om det bare er skumlest) dens brukspolitikk og unngå å be om eller dele innhold som Det ville grense til kriminelt.Og hvis det det gir deg er emosjonelt ubehag, søker profesjonell menneskelig støtte.
Samtalen vil fortsette i den offentlige og regulatoriske sfæren. Åpenhet er nødvendig. om terskler, uavhengige revisjoner og fremfor alt koordinering mellom teknologiselskaper, lovgivere og eksperter slik at balansen mellom sikkerhet og personvern ikke alltid tipper i samme retning. Samtidig er det viktig for brukerne å vite hva som gjennomgås, når og hvorforog hvilke reelle begrensninger vårt juridiske rammeverk setter.
Alt i alt er bildet ikke så enkelt som noen overskrifter antyder; det er heller ikke så ugjennomsiktig at det er grunn til å gi opp: I Spania trenger myndighetene en dommer for å be om data.Og hvis det finnes utenlandske leverandører, så Internasjonalt samarbeidPå OpenAI-siden finnes det overvåking og et menneskelig filter som bare fører til at politiet varsles når de ser en overhengende trussel mot tredjeparter, mens Tilfeller av selvskading behandles med en hjelpende tilnærming. og respekt for privatlivet.
Mellom nettverksmyter og liten skrift om retningslinjer, er det beste kompasset å vite hvordan hvert tannhjul faktisk fungerer. Del denne informasjonen slik at flere kjenner til begrensningene i henhold til spansk lov når man bruker ChatGPT.