Czy dane w narzędziach AI są bezpieczne? 🤔

robot-chat-gpt-ai-zwarcie-exploit

Zadajemy sobie takie pytanie w RetroMedia, bo na codzień w pracy korzystamy z narzędzi AI, żeby zabezpieczać i optymalizować strony klientów czy poprostu nasze. Ale zanim opiszę jak minimalizujemy ryzyko, to przyjrzymy się odnotowanym leakom i atakom jakie były zwiazane z modelami AI.

Co robimy w RetroMedia?

Powyższa lista jest tylko wierzchołkiem góry lodowej, bo artykułów o zagrożeniach i podatnościach zwiazanych z AI można znaleźć bardzo dużo. Mając tę świadomość, że AI to bardzo fajne, ale znowu kolejne narzędzie podatne na ataki i dziury stawiamy pewne kroki zaradcze:
✅ stawiamy na zaufanych partnerów, których staramy się zweryfikować na różne sposoby
✅ testujemy usługę zanim ją wprowadzimy
✅ staramy się w pełni anonimizować dane, które dajemy do analizy
✅ używamy kluczy sprzętowych jako 2FA, gdzie to tylko możliwe
✅ monitorujemy zagrożenia
✅ nie biegniemy bezreflksyjnie za modą, więc zawsze w tle jest człowiek

Jak widzisz podstawą jest zaufany partner, więc nie dajemy naszych i waszych danych byle komu. Weryfikujemy każdą usługę zanim ją wprowadzimy, a jeśli już coś wprowadzamy to anonimizujemy dane. Ewentualny atakujacy znajdzie logi i dowie się, że kiedyś ktoś coś zaatakował – i tyle. Wiemy z jakich narzędzi korzystamy i wiemy co anonimizować.
Gdzie tylko sie da używamy 2FA, a najbardziej lubimy klucze sprzętowe, więc minimalizujemy ryzyko przejęcia konta do niezbędnego minimum. Jesteśmy na bieżąco z kanałami cyberseurity, wiec jeśli pojawi się jakaś wiadomość, że narzędzie z którego korzystamy jest narażone, to możemy w porę zareagować.

Oczywiście to nie wyklucza w 100% pozbycia się ryzyka, bo takiej możliwości nie ma, ale masz tę pewność, że nie zostawiamy sobie narzędzi AI samopas, tylko zawsze otaczamy je ludzką opieką.

Find this content useful? Share it with your friends!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *