The Wall Street Journal donosi, że pracownicy Apple nie mogą już korzystać z narzędzia ChatGPT, ponieważ mogą mu przez przypadek ujawnić poufne informacje.
ChatGPT zakazany pracownikom Apple
Firma Apple jest zaniepokojona możliwością, że ChatGPT może uzyskać dostęp do wrażliwych informacji. Nie jest to zaskakujące, gdyż amerykański gigant technologiczny zawsze ściśle przestrzegał ochrony swoich projektów i oczekiwał od swoich pracowników pełnej dyskrecji. Dodatkowo, według informacji The Wall Street Journal, producent pracuje nad własnymi narzędziami opartymi na sztucznej inteligencji.
Decyzja mogła być jedna: pracownicy Apple otrzymali zakaz korzystania z narzędzia ChatGPT. Zarząd obawia się bowiem, że pracownicy mogą przypadkowo ujawnić poufne informacje, korzystając z tego rozwiązania, na przykład w celu optymalizacji kodu źródłowego.
Nietrudno ujawnić poufne informacje
Niepokój firmy Apple jest uzasadniony. Sztuczna inteligencja zdobywa wiedzę na podstawie informacji, które otrzymuje i wyciąga wnioski z tych danych. W dodatku treść czatów jest też dostępna dla ludzkich pracowników, zwanych trenerami AI.
Co więcej, w ubiegłym miesiącu na łamach The Economist Korea pojawiła się informacja, że trzech pracowników Samsunga przypadkowo ujawniło poufne informacje narzędziu ChatGPT. Prosili o sprawdzenie kodu pod kątem błędów, o optymalizację kodu, a także o sporządzenie protokołu z przesłanego nagrania spotkania. W wyniku tego incydentu, Samsung wprowadził zakaz korzystania z tego narzędzia na danych większych niż 1 KB lub tekstach dłuższych niż 1024 znaki.
Na pewno nie uszło to też uwadze zarządu Apple. Dyrektor generalny firmy, Tim Cook, podkreślił niedawno, że ważne jest zachowanie ostrożności i rozwagi w podejściu do tego rodzaju narzędzi.
Źródło: The Wall Street Journal, Engadget
Komentarze
2