Bezpieczeństwo AI

Nagranie niedostępne

Jeżeli w swojej aplikacji korzystasz z dużego modelu językowego to najprawdopodobniej wyświetlasz jego odpowiedź użytkownikowi. Jednak prawidłowa obsługa danych wyjściowych wcale nie jest taka prosta. Podczas webinaru zobaczysz przykłady różnych błędów, które mogą przykładowo doprowadzić do wycieku danych Twoich użytkowników. Dowiesz się również jak możesz zabezpieczyć swój czat.

  • Zobaczysz dlaczego wyświetlanie oryginalnej odpowiedzi z LLM może być niebezpieczne.
  • Dowiesz się jak ograniczyć ryzyko ataków XSS, gdy korzystasz z LLM.
  • Nauczysz się bezpiecznie wyświetlać tabelki i inne dynamiczne elementy.
  • Zrozumiesz, jakie potencjalne problemy ma składnia markdown.
  • Zobaczysz popularne błędy popełniane przez programistów.

Dla kogo jest ten webinar?

  • Dla programistów, którzy chcą wdrożyć czaty wykorzystujące LLM w swoich aplikacjach.
  • Dla testerów, którzy chcą dowiedzieć się jakie błędy mogą się pojawić w kontekście czatbotów.
  • Dla pentesterów, którzy chcą nauczyć się zaawansowanych technik eksfiltracji danych.
  • Dla każdego, kto chce dowiedzieć się więcej na temat bezpieczeństwa aplikacji wykorzystujących LLM.

Czego się dowiesz?

  • Przykłady halucynacji i ich wpływ na bezpieczeństwo.
  • Jak odpowiedź modelu może trafić do funkcji eval bez wiedzy programisty?
  • Na czym polega technika output constraints?
  • Jak zabezpieczyć czat przed prostymi błędami XSS?
  • Dlaczego błędy XSS mogą być groźne?
  • Jakie niebezpieczeństwa niesie dostęp modelu do przeglądarki internetowej?
  • Jak bezpiecznie wyświetlać tabelki i inne dynamiczne elementy w czatbocie?
  • Jak składania markdown może zostać wykorzystana do eksfiltracji danych użytkownika?
  • Dlaczego wyświetlanie obrazków przez czatbot może być niebezpieczne?
  • Do czego można wykorzystać otwarte przekierowanie?
  • Na co uważać implementując inteligentny czat w komunikatorach Discord i Slack?
  • Jak można wstrzyknąć = złośliwy prompt wykorzystując schowek?
  • Na czym polegają niewidoczne dla człowieka zapytania?
  • Jak można wykorzystać sekwencje ANSI w ataku na programistów?
  • Jak stare błędy bezpieczeństwa mogą wpłynąć na AGENTów AI?
  • Dlaczego odpowiednie zabezpieczenie narzędzi i pluginów jest kluczowe?
  • Przykłady phishingów pozwalających na pobranie tajnych informacji użytkownika.
  • Na czym polega technika human in the loop?

Webinar jest darmowy, ale wymaga wcześniejszej rejestracji.

⏰ Szacowany czas trwania to 90 minut.

📅 Nagranie webinaru będzie dostępne do 24.05.2025 23:59.

Zapisz się do newslettera

Dołącz do newslettera, aby nie przegapić przyszłych webinarów

  • Powiadomię Cię o kolejnych webinarach

Chcę otrzymywać informacje o bezpłatnych i płatnych materiałach, produktach i usługach własnych oraz innych polecanych osób wysyłane przez Kacpra Szurka. Wiem, że mogę uzyskać odpłatny dostęp do ww. materiałów zgodnie z zasadami opisanymi w Regulaminie newslettera.