ChatGPT, MidJourney, DALL-E - Twój LinkedIn już pewnie pęcznieje od natłoku ciekawostek i zastosowań tych narzędzi opartych o sztuczną inteligencję. Podobnie jak blockchain, AI będzie za parę lat powszechnie używane do optymalizacji procesów, wyręczeniu człowieka w wykonywaniu powtarzalnych zadań oraz kreowaniu nowych łańcuchów wartości.
A co jakbyśmy połączyli AI z Web3.0? Czy istnieje projekt, znajdujący się na liście CoinMarketCap, który łączy te dwie wspaniałe technologie?
Tak 🚀 Zapraszam Cię do analizy projektu Ocean Protocol.
Rozkład jazdy na dziś:
Big Data - ile będzie wart w 2025 r.?
AI przypomina niemowlę
Ocean - AI w Web 3.0
Governance - założyciele oraz DAO
Czy tak na prawdę potrzebujemy Ocean Procotol?
Big Data - ile będzie wart w 2025 r.?
Zanim przejdziemy do analizy Ocean Protocol, warto, abyś zapoznał/a się z dwoma pojęciami - Big Data oraz AI. Zacznijmy od Big Data.
Dane cyfrowe, które każdy z nas codziennie generuje są przechowywane, procesowane, dystrybuowane, analizowane, a na końcu używane najczęściej do celów komercyjnych. Każdego dnia, gdy wysyłasz maila, oglądasz filmik na YT lub kupujesz nowe buty na Zalando generujesz nowe dane. Aby nie być gołosłownym, w ciągu każdej sekundy nasza cywilizacja:
Wysyła 3 miliony maili
Ogląda 77 tys. filmów na YT
Udostępnia 8 tys. Tweetów
Ile zatem jest danych dostępnych na świecie?
Dużo, baaaardzo dużo. Jeżeli mielibyśmy pomieścić wszystkie dane generowane każdej sekundy na świecie, potrzebowalibyśmy do tego ponad 1000 MacBooków Pro.
Wiemy zatem, że danych na świecie jest sporo, a ich ilość tylko rośnie z każdą sekundą. Jak się domyślasz, dane same w sobie również mają wartość. Tak działa chociażby model biznesowy Google lub Facebooka (ekhm, przepraszam, Meta), którzy udostępniają swoje platformy użytkownikom końcowym “za darmo” w zamian za nasze dane, które są dalej odsprzedawane do reklamodawców. W samej Unii Europejskiej rynek danych w 2020 roku był wart 443,93 miliarda euro, a w 2025 ma być wart ponad 2 razy więcej:
Mamy dane, jaki jest z nich pożytek dla AI?
AI przypomina niemowlę
Otóż każdy model AI na początku jest jak niemowlę. Ma ręce, nogi i głowę, lecz ani nie umie chodzić ani mówić, a na pewno nie liczyć. Potrzebuje się nauczyć tych rzeczy będąc wyeksponowanym na otaczające je środowisko. Tym otoczeniem dla raczkujących modeli AI są zbiory danych - tysiące, miliony punktów danych, dzięki którym zauważy pierwsze zależności.
Podobnie jak z dzieckiem, jakość otoczenia ma bezpośredni wpływ na dalszy rozwój modelu. Dlatego, tak istotną częścią budowy AI jest zestaw wysokiej jakości danych, na podstawie których algorytm będzie uczył się poznawać wycinek naszego świata.
Weźmy za przykład algorytm, który ma na celu zoptymalizowanie dystrybucji kawałków pizzy w Twojej ulubionej, małej restauracji znajdującej się na obrzeżach dużego miasta w Polsce. Jeżeli nasz model AI naszpikujemy danymi z innych, bardzo podobnych restauracji, borykających się z nadwyżką produkcji pizzy Cztery Sery i brakiem surowców na Calzone, to AI będzie się rozwijać prawidłowo. Jednak, gdy zdecydujesz się na repozytorium, których dane reprezentują restauracje sushi w najdroższych dzielnicach Nowego Jorku, to nasz model zostanie niepoprawnie nauczony. Dlaczego? Ponieważ dane nie będą odpowiednie dla naszego przypadku małych, włoskich restauracji na przedmieściach.
Warto podkreślić, że nie tylko liczy się jakość danych, lecz również ich ilość. Jeżeli w zestawie danych znajdziemy jedynie 3 podobne miejsca to naszej ulubionej restauracji to po prostu nasz model nie będzie miał wystarczająco próbek badawczych. Tak jak dziecko, któremu po 3 zadaniach z matematyki kazałbyś pisać maturę - AI potrzebuje czasu na efektywną naukę.
Za chwilę przejdziemy do tego jak Ocean Protocol może pomóc w rozwoju AI, jednakże, jeżeli czujesz się jeszcze niepewnie w tej dziedzinie, to polecam poniższe filmiki na YT:
Ocean Protocol - AI w Web3.0
Wiemy już, że na świecie jest coraz więcej wartościowych danych, a jedna z najbardziej obiecujących technologii, AI, potrzebuje ich w wysokiej jakości oraz dużej ilości do dalszego rozwoju.
Gdy zapytasz się wujka Google “Where can I get data for my AI model?” zobaczysz dziesiątki platform z repozytoriami danych. Poniżej wypisałem nazwy platform z przykładowymi zestawami danych (data sets):
Kaggle - Opóźnienia pociągów w Polsce od 16 do 30 maja 2020 r.
AWS - Predykcje NASA dotyczące zasobów energetycznych na Ziemii
FBI Crime Data Explorer - Ilość napaści na policjantów w Stanach Zjednocznych od 2011 do 2021 r.
Misją Ocean Protocol jest stworzenie podobnej platformy do udostępniania i przetwarzania danych, lecz na nowych zasadach, zasadach web3.0.
Ocean Marketplace
Najłatwiejszym punktem wyjścia do zrozumienia misji Ocean Protocol jest Ocean Marketplace. Tak jak na innych marketplace’ach takich jak Allegro lub Uber, Ocean ma wiele uczestników rynku:
Dostawcy danych
Kupujący dane
Kuratorzy danych
Deweloperzy
Dostawcą danych może być każdy. Możesz udostępnić wolumen bridgowania tokenów pomiędzy chainami, wolumen transakcji na zdecentralizowanych giełdach kryptowalut i wiele innych, a w momencie zakupu otrzymasz ustaloną przez Ciebie opłatę. Nie płacisz BLIKiem lub PayPalem, lecz jak się zapewne domyślasz, tokenem stworzonym na standardzie ERC-20, OCEAN.
Dostawcy mogą również zaoferować moc obliczeniową oraz data storage, podobnie jak w projektach, które opisywaliśmy z Martinem - Golem i Filecoin.
Kupujący z kolei otrzymuje zakupione przez siebie dane na określony czas, może to być zarówno 7 dni jak na przykładzie powyżej, jak i na zawsze. Zgodnie z duchem web3.0 informacje zarówno na temat zestawu danych oraz sprzedawcy są dostępne dla każdego, dzięki czemu minimalizujemy potencjalne oszustwa. Wg. Ocean Protocol, najczęściej z danych korzystają data scientists, AI researchers oraz deweloperzy.
Kuratorzy, 3. rodzaj użytkowników Ocean Marketplace, stakują tokeny na konkretny zestaw danych, tak aby czerpać korzyści w momencie jego zakupu. W ten sposób zwiększają wiarygodność danej oferty.
Zanim przejdziemy do analizy deweloperów, chciałbym Ci, drogi Czytelniku, zadać pytanie: czy Ocean Protocol nie jest aplikacją typu web3, która powinna zostać w web2? Czy tokenomia oraz blockchain nie utrudniają działania samej platformy?
Przyznam się szczerze, że zmagałem się z tym pytaniem przez parę dobrych dni. Jednakże, po rozmowie z moim drogim przyjacielem, a przy okazji studentem Machine Learning na Imperial College London, Marcinem Gajewskim, doszliśmy do pewnego wniosku:
Ocean Protocol nie będzie walczył z dużymi dostawcami danych jak AWS, Google lub Kaggle. Będzie specjalizował się w danych lokalnych, wyspecjalizowanych, innymi słowy szeroko niedostępnych.
Deweloperzy Ocean Protocol
Ostatnią grupą ekosystemu Ocean Protocol są deweloperzy. Otóż Ocean Marketplace jest projektem typu open-source, dzięki czemu, przy odpowiednich umiejętnościach programistycznych, inne zespoły mogą tworzyć swoje zdecentralizowane marketplace’y danych. Mogą one być równie ogólne, co sam Ocean Marketplace lub istniejące platformy web2.0, które mają renomę na rynku, jednakże wtedy wchodzą na bardzo konkurencyjny rynek. Jaka jest na to odpowiedź? Specjalizacja!
Wyobraźmy sobie 3 projekty AI, które mają na celu:
Optymalizację ruchu drogowego w Warszawie
Ulepszenie algorytmów reklamowych na Allegro
Zredukowanie kosztów obsługi klienta w zakładach wulkanizatorskich w Polsce
Czy otrzymamy dane na powyższe problemy z Kaggle? Nie.
Dzięki Ocean Protocol możemy stworzyć platformę do dzielenia się danymi w określonym środowisku nie tylko geograficznym, lecz również regulacyjnym jak i branżowym. Małe regiony geograficzne takie jak Warszawa lub branża wulkanizacyjna w Wielkopolsce, z punktu widzenia wielkich platform, nie są wystarczająco dużym rynkiem. Co więcej, prawo transferu danych w Australii może być całkowicie inne niż w Stanach Zjednoczonych. Dzięki Ocean Protocol możemy jednak obniżyć bariery wejścia dla dostawców danych i zaadresować powyższe blokady. Wreszcie, pan Kowalski prowadzący warsztat samochodowy będzie mógł w prosty i zachowujący jego prywatność sposób udostępniać dotychczas leżące na serwerze dane i czerpać z nich korzyści finansowe.
Co więcej, obniży to również bariery wejścia dla startupów AI. Wyobraźmy sobie, że jest w miarę prosty sposób dotarcia do danych, dzięki którym “nowonarodzone” modele AI mogą rozwiązać wcześniej wspomniane problemy. Co prawda, w dzisiejszych czasach barierą finansową są również moce obliczeniowe potrzebne do wytrenowania modelu, jednakże Ocean Protocol nie wypływa na wody teraźniejszości. Ma wyznaczony kurs na przyszłość, w której AI jest dużo szerzej dostępne, a moc obliczeniowa jest dużo tańsza.
Wspomniałem przy okazji Pana Kowalskiego, właściciela warsztatu samochodowego, o prywatności. Jak Ocean Protocol zamierza ją zachować?
Compute-to-Data - prywatność na pierwszym miejscu
Są dwie możliwości korzystania z zestawu danych na Ocean Protocol. Pierwszy z nich zakłada, że pobierasz plik CSV, TXT, TIFF itd., wrzucasz go do swojego modelu i masz sprawę załatwioną.
Jednakże, w przypadku bardzo prywatnych danych takich jak dane pacjentów w szpitalach, wyniki matur w liceach lub dane sprzedaży, nie do końca chcemy, aby ktoś do nich “zaglądał”, a tym bardziej dalej je udostępniał. Jednym z rozwiązań jest tzw. compute-to-data service. Polega on wgraniu swojego modelu AI do określonego repozytorium z zestawem danych (w tym przypadku Twojego walleta), a po określonym czasie model zostaje “wyproszony”. Dzięki temu Twoje dane są nie dosyć, że anonimowe, to nigdy nie wydostają się poza Twój wallet.
Obrazowo, compute-to-data wygląda mniej więcej w ten sposób:
Wracając jednak do pytania, które postawiłem wcześniej: czy blockchain oraz tokenomia bardziej szkodzą, niż pomagają w tym projekcie?
Weźmy pod uwagę 2 czynniki:
Zarządzanie przepływem danych
Data DeFi
Zarządzanie przepływem danych
Dzięki Ocean Protocol zarówno małe podmioty takie jak ja lub Twoja mała firma zatrudniająca 5 osób jak i instytucjonalni gracze (szpitale, szkoły, urzędy itp.) będą mogły udostępniać swoje dane w bezpieczny sposób. Umożliwia to głównie compute-to-data service, lecz również wykorzystanie sieci Ethereum jako infrastruktury przepływu danych.
Dzięki technologii blockchain możemy dokładnie sprawdzić kto jest aktualnie w posiadaniu dostępu do naszych danych, co jest zbieżne z wizją DID (Decentralized Identity). Pokrótce, DID to twój zdecentralizowany “plecak” danych, który niesiesz ze sobą przemierzając świat internetu i masz pełną kontrolę kto do niego zagląda oraz jaka jest jego zawartość. Co prawda, same dane nie muszą być on-chain, jedynie klucz do ich dostępu, który jest w postaci tokenu. A to prowadzi nas do następnego wątku…
Data DeFi
Aby opublikować dane na Ocean należy je najpierw stokenizować. Sam zestaw danych jest w postaci NFT (standard (ERC-721), a dostęp do niego można kupić za pomocą data token (standard ERC20).
Łącząc zestawy danych z tokenomią otrzymujemy nietypowy twór - Data DeFi. Data DeFi tworzy zupełnie nowy system finansowy, w którym:
Portfele web3 stają się repozytoriami zestawów danych
Giełdy stają się marketplace’ami tych danych
Platformy lendingowe takie jak AAVE pozwalają, aby data tokens stały się aktywem finansowym umożliwiającym użycie ich jako zabezpieczenie kredytowe (collateral)
Ubezpieczyciel może stworzyć ubezpieczenie dla określonych zestawów danych
Na Ocean Academy, stronie internetowej Ocean, która udostępnia darmowe kursy z tej dziedziny (bardzo polecam 🙂), możemy przeczytać, że:
“Datatokens are like the plankton, they sustain the entire Ocean Protocol ecosystem.”
Co więcej, blockchain i idąca za nim tokenomia pozwalają na pozbycie się pośredników rozkładając większą część łańcucha wartości u odpowiednich właścicieli danych oraz twórców modeli AI.
Daj znać, drogi Czytelniku, w ankiecie poniżej, czy zainteresował Cię temat Data DeFi - następnym razem mogę napisać osobny wpis na ten temat 😉
Governance - Założyciele i DAO
Warto również wspomnieć na sam koniec kto zarządza Ocean Protocol. Najbardziej medialnym współzałożycielem jest Trent McConaghy, który pracuję nad AI od lat 90’, a jego 2 poprzednie startupy zostały wykupione przez Siemens i Synopsys.
Drugim z nich jest jest Bruce Pon, który przed założeniem Ocean Protocol, stworzył 3 globalne spółki z dziedziny nowych technologii.
Do tego, grantami dla projektów, które chcą rozwijać Ocean Protocol, zarządza OceanDAO. Za pomocą głosowań decydują który projekt powinien dostać środki.
Czy tak naprawdę potrzebujemy Ocean Protocol?
Ocean Protocol z pewnością znalazł się na ciekawej ścieżce - jednocześnie chcą wspierać twórców modeli AI, a z drugiej strony umożliwić sprzedaż danych małym lub ściśle uregulowanym podmiotom.
Sam Trent McConaghy, współzałożyciel projektu, wypowiedział się w następujący sposób:
“Ocean Protocol unlocks access to data that would previously be unavailable or challenging to access, by allowing anybody with sought-after datasets to tokenize their data and make it available on the Ocean Market.”
Warto jednak podkreślić z jak mocną konkurencją będą się mierzyć; kaggle, AWS, Microsoft. Nie są to firmy, które nie podniosą rękawicy, a biorąc pod uwagę rosnącą wartość globalnego rynku danych - tym bardziej. Kto wie, może widząc zalety zastosowania blockchaina, również zdecydują się na użycie tej technologii w swoich rozwiązaniach?
Daj znać co sądzisz o Ocean Protocol w komentarzu poniżej 👇