Privatnost i zaštita u digitalnom svijetu su najbitniji: Šta treba sakriti od ChatGPT botova

AI čet-botovi su postali izuzetno popularni i korisni alati za dobijanje informacija, savjeta i pomoći o raznim temama. Iako mogu biti veoma korisni, moramo biti oprezni kada dijelimo svoje podataka sa njima. Zašto? Zato što im se ne može vjerovati.

Da bismo razumjeli rizike za privatnost koji su povezani sa AI čet-botovima, važno je znati kako oni funkcionišu. Čet-botovi prikupljaju i čuvaju transkripte razgovora sa korisnicima. Ovo uključuje sva pitanja, upite i poruke koje šaljete čet-botu i odgovore čet-bota. Kompanije koje stoje iza ovih AI asistenata analiziraju i obrađuju ove konverzacijske podatke kako bi obučile i poboljšale svoje velike jezičke modele.

Znate li gdje odlaze lični podaci koje saopštite?

Razmišljajte o čet-botu kao o učeniku koji hvata bilješke tokom časa. On zapisuje sve što kažete, a AI kompanija zatim pregleda ove “bilješke” kako bi pomogla čet-botu da uči, slično kao što bi učenik čitao svoje bilješke da bi nešto naučio iz njih. To znači da vaše podatke iz razgovora,koji mogu uključivati lične podatke, mišljenja i osjetljive detalje koje otkrivate, prikupljaju, čuvaju i proučavaju kompanije za vještačku inteligenciju, makar privremeno.

Kada dijelite lične ili osjetljive informacije sa AI čet-botom, gubite kontrolu nad tim gdje ti podaci idu ili kako se mogu koristiti. AI čet-botovi čuvaju podatke na serverima koji mogu biti hakovani. Ovi serveri sadrže mnoštvo informacija koje sajber kriminalci mogu da iskoriste na različite načine. Oni mogu da ukradu podatke i prodaju ih drugim sajber kriminalcima. Pored toga, hakeri mogu da koriste ove podatke za hakovanje vaših naloga i dobijanje neovlašćenog pristupa vašim uređajima.

Svi podaci koje pružite mogu biti otkriveni, hakovani ili zloupotrebljeni, što može dovesti do krađe identiteta, finansijske prevare ili javnog izlaganja intimnih informacija koje biste radije sačuvali za sebe.
Zaštita privatnosti znači biti selektivan u vezi sa detaljima koje otkrivate AI čet-botovima.

Šta onda ne treba reći čet-botu?

Budite izuzetno oprezni sa ovim vrstama podataka:

1. Lični podaci za identifikaciju: Izbjegavajte dijeljenje ličnih podataka kao što su vaše puno ime, kućna adresa, broj telefona, datum rođenja, broj socijalnog osiguranja ili drugi državni identifikacioni brojevi. Bilo šta od ovoga može biti iskorišćeno za lažno predstavljanje, što može dovesti do krađe identiteta, finansijske prevare ili druge zloupotrebe vaših ličnih podataka.

2. Korisnička imena i lozinke: Nikada ne dijelite lozinke, PIN-ove, kodove za potvrdu identiteta ili druge kredencijale za prijavu sa AI čet-botovima. Čak i davanje nagovještaja o vašim kredencijalima može pomoći hakerima da pristupe vašim nalozima.

3. Finansijske informacije: Nikada ne bi trebalo da dijelite nikakve informacije o bankovnim računima, brojeve kreditnih kartica ili podatke o prihodima sa AI čet-botovima. Možete ih pitati za opšte finansijske savjete, postavljati im opšta pitanja u vezi sa planiranjem budžeta ili čak za poreska pravila, ali čuvajte svoje osjetljive finansijske informacije privatnim, jer to može lako dovesti do ugrožavanja vaših računa i imovine.

4. Vaše misli koje bi trebalo da sačuvate za sebe: Dok AI čet-botovi mogu poslužiti kao saosjećajni sagovornik, trebalo bi da izbjegavate da otkrivate duboko lične misli, iskustva ili mišljenja koja vam ne bi bilo prijatno da javno dijelite. Bilo šta, od političkih ili religioznih pogleda do problema u odnosima ili emocionalnih borbi, moglo bi biti otkriveno ako se konverzacijski logovi hakuju ili ako se njima loše rukuje.

5. Povjerljive informacije u vezi sa poslom: Kada su u pitanju poslovne tajne, insajderske informacije ili povjerljivi podaci na radnom mjestu bilo koje vrste, nemojte o tome razgovarati sa javnim AI čet-botovima. Izbjegavajte korišćenje AI čet-botova za sumiranje zapisnika sa sastanaka ili automatizaciju zadataka koji se ponavljaju, jer postoji rizik od nenamjernog izlaganja osjetljivih podataka ili kršenja ugovora o povjerljivosti i zaštite intelektualne svojine vašeg poslodavca.

Podsjetimo se slučaja kada su zaposleni u Samsungu koristili Chat GPT za kodiranje i slučajno učitali osjetljivi kod na generativnu AI platformu. Ovaj incident je rezultirao otkrivanjem povjerljivih informacija o Samsungu, što je navelo kompaniju da uvede zabranu korišćenja AI čet-botova.

Tehnološke kompanije poput Applea i Googlea čak imaju pravila koja zabranjuju zaposlenima da koriste AI čet-botove za posao.

6. Vaš originalni kreativni rad: Nikada ne dijelite svoje originalne ideje sa čet-botovima, osim ako ne želite da ih dijelite sa svima.

7. Informacije u vezi sa zdravljem: Istraživanje koje je sprovela kompanija za zdravstvenu tehnologiju Tebra otkrilo je da je veća vjerovatnoća da će 1 od 4 Amerikanaca razgovarati sa AI čet-botom umjesto da se liječi, a više od 5% Amerikanaca se obratilo Chat GPT-u za dijagnozu i slijedilo njegov savjet. Zaštititi svoje zdravstvene podatke znači sačuvati povjerljivost podataka i zaštititi se od potencijalnog kršenja privatnosti ili zloupotrebe osjetljivih medicinskih informacija. Dakle, nikada ne otkrivajte svoje zdravstveno stanje, dijagnoze, detalje liječenja ili terapiju AI čet-botovima. Umjesto toga, razgovarajte sa kvalifikovanim zdravstvenim radnicima u bezbjednom i privatnom okruženju, prenosi Mondo.ba.

Kako bezbjedno koristiti čet-botove?

1. Budite oprezni u vezi sa informacijama koje dajete.

2. Pročitajte politiku privatnosti i potražite podešavanja privatnosti čet-bota.

3. Koristite opciju da onemogućite da se vaši podaci koriste za obuku jezičkih modela kada je dostupna.

Dakle, korišćenje anonimnog/privatnog režima, brisanje istorije razgovora i prilagođavanje podešavanja su glavni načini za ograničavanje prikupljanja podataka od strane AI čet-botova. Većina velikih provajdera AI nudi ove opcije.

Slični Članci