OpenAI mianował „kierownika ds. przygotowań”, który będzie nadzorować bezpieczeństwo sztucznej inteligencji
OpenAI mianuje nowego lidera ds. bezpieczeństwa sztucznej inteligencji
W świetle rosnących pytań dotyczących bezpiecznego korzystania z AI firma OpenAI ogłosiła nowego członka zespołu – Dylana Skandinaro na stanowisko *Head of Preparedness* (dyrektor ds. gotowości).
Kim jest Dylan Skandinaro?
OkresFirmaRolaMaj 2023 – luty 2024AnthropicLider projektów bezpieczeństwa AISierpień 2022 – maj 2025DeepMind (Google)Specjalista ds. syntetycznych danych do szkolenia GeminiDo 2022Palantir, Unity Technologies, Everyday RobotsRóżne stanowiska w dziedzinie uczenia maszynowego i rozwoju oprogramowania
Skandinaro jest znany z tego, że na poprzednich miejscach pracy zajmował się podobnymi zadaniami redukcji ryzyka przy tworzeniu modeli AI.
Co oznacza nowe powołanie?
* Rola: Wiodąca pozycja w zespole „gotowości” – odpowiedzialny za przygotowanie i wdrożenie środków, które pozwolą rozwijać potężne modele bez zagrożeń dla użytkowników.
* Warunki: Wynagrodzenie $550 000 rocznie plus akcje OpenAI.
* Kontekst: Od 2023 roku w firmie działa „zespół gotowości”, wcześniej prowadzony przez Aleksandra Madri, specjalistę z MIT.
Jak widzi sytuację lider OpenAI
Prezes Sam Altman zauważył, że przy przyspieszonym rozwoju modeli firma będzie musiała zmierzyć się z nowymi i bardziej poważnymi ryzykami. Podkreślił:
> „Będziemy pracować nad bardzo potężnymi modelami. To wymaga odpowiednich środków ostrożności, aby zapewnić dalsze korzystanie z dużych korzyści.”
Altman wyraził pewność co do kompetencji Skandinaro:
*„Jest najlepszym kandydatem na tę rolę ze wszystkich ludzi, których kiedykolwiek spotkałem”, – powiedział.*
Dodał, że dzięki nowemu liderowi zespół będzie mógł skupić się na długoterminowym bezpieczeństwie i „będzie spał spokojniej”.
Co oczekuje się od Skandinaro?
Skandinaro sam przyznał, że szybko rozwijające się modele AI mogą spowodować „ekstremalne i nawet nieodwracalne szkody”. Dlatego przed nim stoi zadanie:
* opracować strategie minimalizacji ryzyka;
* wdrożyć praktyki bezpiecznego szkolenia i eksploatacji modeli;
* koordynować wysiłki całego zespołu OpenAI w tej dziedzinie.
Wniosek
OpenAI rozszerza swoją strukturę bezpieczeństwa, przyciągając doświadczonego specjalistę z czołowych firm branży. Nowe powołanie podkreśla dążenie firmy do odpowiedzialnego rozwoju AI i przygotowania się na ewentualne wyzwania przyszłości.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować