Konsolidacja ram: czy nadszedł czas na połączenie ram głębokiego uczenia się?

KREDYT WZROKU:
Image credit
iStock

Konsolidacja ram: czy nadszedł czas na połączenie ram głębokiego uczenia się?

Konsolidacja ram: czy nadszedł czas na połączenie ram głębokiego uczenia się?

Tekst podtytułu
Duże firmy technologiczne zachwalają swoje autorskie ramy sztucznej inteligencji kosztem lepszej współpracy.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 31 stycznia 2023 r.

    Narzędzia wykorzystujące sztuczną inteligencję (AI) i uczenie maszynowe (ML) umożliwiają organizacjom skuteczniejsze zarządzanie i analizowanie ich stale rosnących zasobów danych. W szczególności ramy uczenia głębokiego (DL) stają się elementami składowymi wielu innowacji AI/ML. Wyzwanie polega teraz na konsolidacji różnych ram w celu przyspieszenia badań i rozwoju.

    Ramowy kontekst konsolidacji

    Framework programistyczny to zestaw narzędzi, który pomaga programistom w tworzeniu oprogramowania i systemów, które są dobrze zorganizowane i niezawodne. Ramy w programowaniu zapewniają gotowe komponenty lub rozwiązania typowych problemów, które programiści mogą następnie dostosować do swoich konkretnych potrzeb. W tradycyjnym programowaniu niestandardowe wywołania kodu do biblioteki w celu uzyskania dostępu do kodu wielokrotnego użytku. Dzięki odwróceniu kontroli (IoC) struktura odwołuje się do niestandardowych fragmentów kodu, gdy jest to konieczne.

    Jeśli chodzi o DL, frameworki zapewniają łatwy sposób projektowania, trenowania i weryfikowania głębokich sieci neuronowych. Wiele frameworków DL wykorzystuje procesory graficzne (GPU) do przyspieszenia szkolenia, w tym PyTorch, TensorFlow, PyTorch Geometric i DGL. Struktury te opierają się na bibliotekach akcelerowanych przez GPU, takich jak cuDNN, NCCL i DALI, aby zapewnić wysoką wydajność. 

    Popularność niektórych frameworków DL wśród badaczy często odzwierciedla trendy w zastosowaniach komercyjnych. Na przykład TensorFlow firmy Google i PyTorch firmy Meta to dwa najpopularniejsze. W szczególności PyTorch odnotował wzrost popularności od 2017 r. Według magazynu poświęconego sztucznej inteligencji The Gradient, w artykułach konferencyjnych z 2019 r., w których wspomniano o używanym frameworku, 75 procent cytowało PyTorch, ale nie TensorFlow. Spośród 161 badaczy, którzy opublikowali więcej artykułów TensorFlow niż PyTorch, 55 procent przeszło na Pytorch, podczas gdy tylko 15 procent zrobiło odwrotnie.

    Zakłócający wpływ

    Firmy coraz częściej muszą konsolidować swoje ramy sztucznej inteligencji, aby zapewnić spójne wyniki i kontrolę jakości. Proces od badań do produkcji projektów AI był w przeszłości powolny i żmudny. Wiele kroków, trudne w użyciu narzędzia i brak standaryzacji utrudniały śledzenie wszystkiego. Badacze i inżynierowie mieli problem z wyborem między platformami, które nadawały się do badań lub do produkcji komercyjnej, ale nie do obu.

    W 2021 roku Meta zdecydowała się na migrację wszystkich swoich systemów AI do PyTorch. Wcześniej firma korzystała z dwóch głównych frameworków — PyTorch o otwartym kodzie źródłowym do celów badawczych (który firma opracowała we współpracy z Linux Foundation) oraz Caffe2, wewnętrznego frameworka wykorzystywanego do celów komercyjnych. To przejście jest dobrą wiadomością nie tylko dla Meta, która pozwoli zaoszczędzić pieniądze na utrzymaniu i rozwoju, ale także dla programistów korzystających z tej struktury open source. Meta powiedział, że skupi się na współpracy ze społecznością programistów PyTorch, współpracy nad pomysłami i potencjalnymi projektami. 

    Inżynierowie PyTorch na Facebooku stopniowo wprowadzali różne narzędzia, wstępnie wytrenowane modele, biblioteki i zestawy danych niezbędne na każdym etapie opracowywania innowacji AI/ML. Dzięki aktualizacjom z 2021 r. przeprowadzono ponad 3,000 trwających badań w porównaniu z poprzednimi wersjami. Miejmy nadzieję, że firmy technologiczne będą bardziej współpracować w celu ograniczenia ram sztucznej inteligencji i stworzenia interoperacyjnych systemów, które promują współpracę i adopcję.

    Implikacje konsolidacji ram

    Szersze implikacje konsolidacji ram mogą obejmować: 

    • Szybsze innowacje w obszarze sztucznej inteligencji/uczenia maszynowego, ponieważ coraz więcej firm przyjmuje jedną główną strukturę badań.
    • Spójne wrażenia użytkowników końcowych w różnych programach korzystających z tej samej podstawowej infrastruktury, w szczególności w przypadku inteligentnych domów i urządzeń Internetu rzeczy (IoT).
    • Badacze są w stanie dokładnie zidentyfikować stronniczość algorytmu i inne błędy/problemy podczas korzystania z jednej wspólnej struktury.
    • Większa współpraca między firmami technologicznymi i organizacjami w celu tworzenia platform typu open source, do których każdy może uzyskać dostęp i na których można budować.
    • Rosnąca konkurencja między dużymi firmami technologicznymi w celu ustanowienia najbardziej dominujących ram, co może utrudniać współpracę.

    Pytania do skomentowania

    • Jeśli pracujesz w przestrzeni DL, w jaki sposób konsolidacja frameworków ułatwiła Ci pracę?
    • Jakie są inne zalety wybranej liczby frameworków, które dobrze ze sobą współpracują?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: