OpenAI mianował „kierownika ds. przygotowań”, który będzie nadzorować bezpieczeństwo sztucznej inteligencji

OpenAI mianował „kierownika ds. przygotowań”, który będzie nadzorować bezpieczeństwo sztucznej inteligencji

8 software

OpenAI mianuje nowego lidera ds. bezpieczeństwa sztucznej inteligencji

W świetle rosnących pytań dotyczących bezpiecznego korzystania z AI firma OpenAI ogłosiła nowego członka zespołu – Dylana Skandinaro na stanowisko *Head of Preparedness* (dyrektor ds. gotowości).

Kim jest Dylan Skandinaro?
OkresFirmaRolaMaj 2023 – luty 2024AnthropicLider projektów bezpieczeństwa AISierpień 2022 – maj 2025DeepMind (Google)Specjalista ds. syntetycznych danych do szkolenia GeminiDo 2022Palantir, Unity Technologies, Everyday RobotsRóżne stanowiska w dziedzinie uczenia maszynowego i rozwoju oprogramowania
Skandinaro jest znany z tego, że na poprzednich miejscach pracy zajmował się podobnymi zadaniami redukcji ryzyka przy tworzeniu modeli AI.

Co oznacza nowe powołanie?
* Rola: Wiodąca pozycja w zespole „gotowości” – odpowiedzialny za przygotowanie i wdrożenie środków, które pozwolą rozwijać potężne modele bez zagrożeń dla użytkowników.
* Warunki: Wynagrodzenie $550 000 rocznie plus akcje OpenAI.
* Kontekst: Od 2023 roku w firmie działa „zespół gotowości”, wcześniej prowadzony przez Aleksandra Madri, specjalistę z MIT.

Jak widzi sytuację lider OpenAI
Prezes Sam Altman zauważył, że przy przyspieszonym rozwoju modeli firma będzie musiała zmierzyć się z nowymi i bardziej poważnymi ryzykami. Podkreślił:
> „Będziemy pracować nad bardzo potężnymi modelami. To wymaga odpowiednich środków ostrożności, aby zapewnić dalsze korzystanie z dużych korzyści.”
Altman wyraził pewność co do kompetencji Skandinaro:
*„Jest najlepszym kandydatem na tę rolę ze wszystkich ludzi, których kiedykolwiek spotkałem”, – powiedział.*
Dodał, że dzięki nowemu liderowi zespół będzie mógł skupić się na długoterminowym bezpieczeństwie i „będzie spał spokojniej”.

Co oczekuje się od Skandinaro?
Skandinaro sam przyznał, że szybko rozwijające się modele AI mogą spowodować „ekstremalne i nawet nieodwracalne szkody”. Dlatego przed nim stoi zadanie:
* opracować strategie minimalizacji ryzyka;
* wdrożyć praktyki bezpiecznego szkolenia i eksploatacji modeli;
* koordynować wysiłki całego zespołu OpenAI w tej dziedzinie.

Wniosek
OpenAI rozszerza swoją strukturę bezpieczeństwa, przyciągając doświadczonego specjalistę z czołowych firm branży. Nowe powołanie podkreśla dążenie firmy do odpowiedzialnego rozwoju AI i przygotowania się na ewentualne wyzwania przyszłości.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować