Zadajemy sobie takie pytanie w RetroMedia, bo na codzień w pracy korzystamy z narzędzi AI, żeby zabezpieczać i optymalizować strony klientów czy poprostu nasze. Ale zanim opiszę jak minimalizujemy ryzyko, to przyjrzymy się odnotowanym leakom i atakom jakie były zwiazane z modelami AI.
- Wyciek danych z Samsunga
- Potencjalne wirusy targetujące w AI
- Przejmowanie kont w OpenAI
- Niezałatane podatności w czatbocie NextChat
- Przeglądarkowe wtyczki do obsługi AI kradnące dane
Co robimy w RetroMedia?
Powyższa lista jest tylko wierzchołkiem góry lodowej, bo artykułów o zagrożeniach i podatnościach zwiazanych z AI można znaleźć bardzo dużo. Mając tę świadomość, że AI to bardzo fajne, ale znowu kolejne narzędzie podatne na ataki i dziury stawiamy pewne kroki zaradcze:
✅ stawiamy na zaufanych partnerów, których staramy się zweryfikować na różne sposoby
✅ testujemy usługę zanim ją wprowadzimy
✅ staramy się w pełni anonimizować dane, które dajemy do analizy
✅ używamy kluczy sprzętowych jako 2FA, gdzie to tylko możliwe
✅ monitorujemy zagrożenia
✅ nie biegniemy bezreflksyjnie za modą, więc zawsze w tle jest człowiek
Jak widzisz podstawą jest zaufany partner, więc nie dajemy naszych i waszych danych byle komu. Weryfikujemy każdą usługę zanim ją wprowadzimy, a jeśli już coś wprowadzamy to anonimizujemy dane. Ewentualny atakujacy znajdzie logi i dowie się, że kiedyś ktoś coś zaatakował – i tyle. Wiemy z jakich narzędzi korzystamy i wiemy co anonimizować.
Gdzie tylko sie da używamy 2FA, a najbardziej lubimy klucze sprzętowe, więc minimalizujemy ryzyko przejęcia konta do niezbędnego minimum. Jesteśmy na bieżąco z kanałami cyberseurity, wiec jeśli pojawi się jakaś wiadomość, że narzędzie z którego korzystamy jest narażone, to możemy w porę zareagować.
Oczywiście to nie wyklucza w 100% pozbycia się ryzyka, bo takiej możliwości nie ma, ale masz tę pewność, że nie zostawiamy sobie narzędzi AI samopas, tylko zawsze otaczamy je ludzką opieką.