KREDYT WZROKU:
Nazwa wydawcy
Antropiczny
Podstawowe poglądy na bezpieczeństwo sztucznej inteligencji: kiedy, dlaczego, co i jak
Opis linku
Anthropic to organizacja badawcza, której celem jest zapewnienie rozwoju sztucznej inteligencji (AI) w sposób bezpieczny i korzystny dla ludzkości. Ich strona internetowa zawiera przegląd ich podstawowych poglądów na temat bezpieczeństwa sztucznej inteligencji, co obejmuje ich przekonanie, że sztuczna inteligencja powinna być zgodna z wartościami i celami ludzkimi, zaprojektowana tak, aby była przejrzysta i możliwa do wyjaśnienia oraz podlegała ciągłemu monitorowaniu i ocenie. Aby sztuczna inteligencja była zgodna z wartościami i celami ludzkimi, Anthropic opowiada się za wykorzystaniem badań nad dopasowaniem wartości, które mają na celu zrozumienie, w jaki sposób budować systemy sztucznej inteligencji, które mają te same cele i wartości co ludzie. Podkreślają również znaczenie projektowania systemów sztucznej inteligencji, które są przejrzyste i zrozumiałe, co oznacza, że ich decyzje i działania mogą być łatwo zrozumiałe dla ludzi. Pomoże to w budowaniu zaufania i odpowiedzialności między systemami AI a ich użytkownikami. Aby przeczytać więcej, użyj poniższego przycisku, aby otworzyć oryginalny artykuł zewnętrzny.
- opublikowany: Nazwa wydawcyAntropiczny
- Kurator linków: Brad Barry
- 30 marca 2023 r.