Проекти Web3 з концепцією ШІ стали об'єктами залучення капіталу на первинному та вторинному ринках.
Можливості Web3 в AI-індустрії проявляються у використанні розподілених стимулів для координації потенційних постачань у довгому хвості, між даними, зберіганням та обчисленнями; одночасно з цим створюючи відкриті моделі та децентралізований ринок для AI-агентів.
Штучний інтелект в індустрії Web3 в основному використовується в ланцюгових фінансах (криптовалютні платежі, торгівля, аналіз даних) та для допомоги в розробці.
Корисність AI+Web3 проявляється в їх взаємодоповнювальності: Web3 обіцяє протистояти централізації AI, а AI, в свою чергу, обіцяє допомогти Web3 вийти за межі.
Останні два роки розвиток ШІ справді прискорився. Хвиля, викликана Chatgpt, не лише відкрила новий світ генеративного штучного інтелекту, але й викликала величезний резонанс у сфері Web3.
Під впливом концепції ШІ фінансування крипторинку, яке сповільнилося, помітно зросло. Лише за першу половину 2024 року 64 проекти Web3+AI завершили фінансування, а операційна система на базі штучного інтелекту Zyber365 в рамках раунду A досягла найбільшої суми фінансування в 100 мільйонів доларів.
Ринок другорядних активів став ще більш процвітаючим. Дані Coingecko свідчать про те, що за короткий період трохи більше року загальна капіталізація AI-сфери досягла 48,5 мільярдів доларів, а обсяг торгів за останні 24 години наблизився до 8,6 мільярдів доларів. Очевидні переваги, пов'язані з прогресом у основних AI-технологіях, стали помітними: після випуску моделі OpenAI Sora для перетворення тексту в відео середня ціна в секторі AI зросла на 151%. Ефект AI також поширився на один із сегментів криптовалют, що приваблюють інвестиції — Meme: перша концепція AI Agent MemeCoin — GOAT швидко здобула популярність і отримала оцінку в 1,4 мільярда доларів, успішно піднявши хвилю AI Meme.
Дослідження та теми, пов'язані з AI+Web3, також на піку популярності: від AI+Depin до AI Memecoin, а тепер до поточних AI Agent та AI DAO, емоція FOMO вже не встигає за швидкістю зміни нових наративів.
AI+Web3, ця комбінація термінів, що переповнена гарячими грошима, трендами та фантазіями про майбутнє, неминуче сприймається як шлюб, організований капіталом. Нам здається, що важко розрізнити під цим розкішним покривалом, чи є це ігровим полем спекулянтів, чи переддень вибуху світанку?
Щоб відповісти на це питання, ключове міркування для обох сторін полягає в тому, чи стане краще з іншою стороною? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми намагаємося поглянути на цю структуру, спираючись на досягнення попередників: як Web3 може відігравати роль на всіх етапах технологічного стеку AI, і що нове життя AI може принести Web3?
Частина 1 Які можливості Web3 під стеком AI?
Перш ніж розпочати цю тему, нам потрібно зрозуміти технологічний стек великих моделей ШІ:
Використовуючи більш зрозумілу мову для опису всього процесу: «велика модель» подібна до людського мозку, на ранніх стадіях цей мозок належить новонародженій дитині, яка тільки-но з'явилася на світ, і їй потрібно спостерігати та отримувати величезну кількість інформації з навколишнього світу, щоб зрозуміти цей світ, це етап «збирання» даних. Оскільки комп'ютери не мають людських зорових, слухових та інших сенсорів, перед навчанням масштабна неструктурована інформація ззовні повинна бути перетворена через «попередню обробку» в інформаційний формат, зрозумілий та корисний для комп'ютера.
Після введення даних штучний інтелект через «навчання» створює модель, яка має здатність розуміти та прогнозувати, що можна вважати процесом, подібним до того, як немовля поступово розуміє та вивчає навколишній світ. Параметри моделі подібні до мовних навичок немовляти, які постійно коригуються під час навчання. Коли вміст навчання починає розділятися на предмети, або взаємодія з людьми дає зворотний зв'язок і корекцію, це переходить до етапу «фіншування» великої моделі.
Діти, поступово дорослішаючи і навчаючись говорити, можуть розуміти значення в нових розмовах і висловлювати свої почуття та думки. Ця стадія схожа на «інференцію» у великих моделях штучного інтелекту, коли модель може прогнозувати та аналізувати нові мовні та текстові введення. Немовлята через мовні здібності виражають почуття, описують об'єкти та вирішують різноманітні проблеми, що теж схоже на те, як великі моделі штучного інтелекту, після завершення навчання, застосовуються на етапі інференції для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.
А AI Agent наближається до наступної форми великої моделі — здатної самостійно виконувати завдання та переслідувати складні цілі, яка не тільки має здатність до мислення, але й може запам'ятовувати, планувати, а також використовувати інструменти для взаємодії зі світом.
Наразі, щодо болючих місць AI на різних стекових рівнях, Web3 наразі попередньо сформував багаторівневу, взаємопов'язану екосистему, яка охоплює всі етапи процесу моделей AI.
Один. Базовий рівень: обчислювальна потужність та дані Airbnb
Потужність
Наразі однією з найвищих витрат штучного інтелекту є обчислювальна потужність та енергія, необхідні для навчання моделей і моделювання.
Один приклад — це те, що для навчання моделі LLAMA3 від Meta потрібно 16000 графічних процесорів H100, вироблених NVIDIA (це провідний графічний процесор, спеціально розроблений для штучного інтелекту та високопродуктивних обчислювальних навантажень), що займає 30 днів. Ціна на версію з 80 ГБ коливається від 30,000 до 40,000 доларів, що вимагає інвестицій у обчислювальне обладнання (GPU + мережеві чіпи) у розмірі від 400 до 700 мільйонів доларів, при цьому щомісячні тренування споживають 1.6 мільярда кіловат-годин, а витрати на енергію складають майже 20 мільйонів доларів на місяць.
Розвантаження обчислювальної потужності ШІ є однією з перших областей перетворення Web3 з ШІ — DePin (децентралізована мережа фізичної інфраструктури). На даний момент сайт даних DePin Ninja вже представив більше 1400 проектів, серед яких представлені проекти з обміну потужністю GPU, такі як io.net, Aethir, Akash, Render Network тощо.
Основна логіка полягає в тому, що платформа дозволяє особам або організаціям, які мають невикористані ресурси GPU, вносити свій обчислювальний потенціал у децентралізований спосіб без необхідності отримання дозволу. Це підвищує використання недоактивованих ресурсів GPU через онлайн-ринок покупців і продавців, подібний до Uber або Airbnb, а кінцеві користувачі отримують більш економічні та ефективні обчислювальні ресурси; одночасно механізм стейкінгу забезпечує, що у разі порушення механізму контролю якості або переривання мережі постачальники ресурсів отримують відповідні санкції.
Його особливістю є:
Збір невикористаних ресурсів GPU: постачальники в основному складаються з незалежних малих і середніх дата-центрів, крипто-майнінгових компаній та інших операторів, які мають надлишок обчислювальних ресурсів, механізм консенсусу - PoS для майнінгового обладнання, як-от FileCoin і ETH майнери. Наразі також є проекти, які прагнуть запустити обладнання з нижчим порогом входу, такі як exolab, що використовує MacBook, iPhone, iPad та інші локальні пристрої для створення обчислювальної мережі для роботи з великими моделями.
Перед довгим хвостом ринку обчислювальної потужності ІІ:
a. «З технологічної точки зору» децентралізований ринок обчислювальних потужностей є більш підходящим для етапів інференції. Навчання більше залежить від обробної спроможності величезних кластерів GPU, тоді як інференція вимагає від GPU відносно низької обчислювальної потужності, як Aethir, що фокусується на рендерингу з низькою затримкою й застосуваннях AI інференції.
b. "Щодо попиту" малі та середні споживачі обчислювальних потужностей не будуть окремо навчати свої великі моделі, а просто виберуть оптимізацію та доопрацювання навколо кількох провідних великих моделей, і ці сценарії природно підходять для розподілених невикористаних обчислювальних ресурсів.
Децентралізована власність: Технічне значення блокчейну полягає в тому, що власники ресурсів завжди зберігають контроль над своїми ресурсами, гнучко коригуючи їх відповідно до потреб, а також отримуючи прибуток.
Дані
Дані є основою штучного інтелекту. Якщо немає даних, обчислення стає безглуздим, а зв'язок між даними та моделлю подібний до прислів'я "Сміття на вході, сміття на виході". Кількість даних та якість введення визначають кінцеву якість виходу моделі. Щодо навчання сучасних AI моделей, дані визначають мовні можливості моделі, здатність до розуміння, навіть цінності та людяність. Наразі труднощі в потребах AI у даних в основному зосереджені на чотирьох аспектах:
Голод даних: навчання моделей ШІ залежить від великої кількості вхідних даних. Відкриті дані показують, що OpenAI навчила GPT-4 з параметрами на трильйонному рівні.
Якість даних: З поєднанням ШІ та різних галузей виникають нові вимоги до якості даних, такі як своєчасність даних, різноманітність даних, професійність галузевих даних та включення нових джерел даних, таких як емоції з соціальних медіа.
Проблеми конфіденційності та відповідності: В даний час різні країни та компанії поступово усвідомлюють важливість якісних наборів даних і запроваджують обмеження на збори даних.
Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Відкриті дані показують, що понад 30% витрат на дослідження і розробки в AI-компаніях йдуть на збір і обробку базових даних.
На даний момент рішення web3 проявляються в наступних чотирьох аспектах:
Збір даних: можливість безкоштовно отримувати дані з реального світу швидко вичерпується, витрати компаній з штучного інтелекту на дані зростають щороку. Але водночас ці витрати не повертаються до справжніх постачальників даних, платформи повністю користуються створенням вартості, яку приносить дані.
Дати можливість справжнім учасникам внесків також брати участь у створенні цінності, яку приносить дані, а також отримувати більш приватні та цінні дані від користувачів за низькою вартістю за допомогою розподіленої мережі та механізмів заохочення - це бачення Web3.
Grass є децентралізованим рівнем даних і мережею, користувачі можуть запускати вузли Grass, щоб вносити свій вільний пропускну здатність і релейний трафік для захоплення реальних даних з усього Інтернету та отримувати винагороду у токенах;
Vana впроваджує унікальну концепцію пулу ліквідності даних (DLP), де користувачі можуть завантажувати свої приватні дані (наприклад, історію покупок, звички перегляду, активність у соціальних мережах тощо) до певного DLP та гнучко вибирати, чи надавати ці дані для використання певним третім особам;
У PublicAI користувачі можуть використовувати #AI或#Web3 як категорійний ярлик на X та @PublicAI для збору даних.
Передобробка даних: під час обробки даних штучного інтелекту, оскільки зібрані дані зазвичай є шумними та містять помилки, їх необхідно очистити та перетворити в придатний формат до навчання моделі, що включає стандартизацію, фільтрацію та обробку пропущених значень у повторювальних завданнях. Ця стадія є однією з небагатьох ручних етапів у галузі штучного інтелекту, що призвело до виникнення професії маркерів даних. Оскільки вимоги моделі до якості даних зростають, поріг входу для маркерів даних також підвищується, а це завдання природно підходить для децентралізованої системи винагород Web3.
Зараз Grass та OpenLayer обидва розглядають можливість додавання цього ключового етапу - позначення даних.
Synesis запропонував концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороди, надаючи розмічені дані, коментарі або інші форми внесків.
Проект мітки даних Sapien ігровизує завдання з мітками та дозволяє користувачам заморожувати бали, щоб заробити більше балів.
Конфіденційність даних та безпека: необхідно чітко зрозуміти, що конфіденційність даних та безпека - це два різні поняття. Конфіденційність даних стосується обробки чутливих даних, тоді як безпека даних захищає інформацію від несанкціонованого доступу, знищення та крадіжки. Таким чином, переваги технологій конфіденційності Web3 та потенційні сценарії їх застосування проявляються в двох аспектах: (1) навчання на чутливих даних; (2) співпраця з даними: кілька власників даних можуть спільно брати участь у навчанні ШІ, не ділячись своїми оригінальними даними.
Серед поширених технологій конфіденційності в Web3 є:
Довірене виконуване середовище(TEE), наприклад, Super Protocol;
Повна гомоморфна криптографія (FHE), наприклад, BasedAI, Fhenix.io або Inco Network;
Технологія нульового знання (zk), така як протокол Reclaim, використовує технологію zkTLS для генерування доказів нульового знання для HTTPS-трафіку, що дозволяє користувачам безпечно імпортувати активність, репутацію та ідентифікаційні дані з зовнішніх веб-сайтів без розкриття чутливої інформації.
Проте, наразі ця сфера все ще на ранній стадії, більшість проєктів все ще в процесі дослідження, нинішня проблема полягає в тому, що витрати на обчислення занадто високі, кілька прикладів:
Фреймворк zkML EZKL потребує приблизно 80 хвилин для генерації доказу моделі 1M-nanoGPT.
Згідно з даними Modulus Labs, витрати на zkML вищі ніж на чисті обчислення більш ніж в 1000 разів.
Зберігання даних: Після отримання даних необхідно також місце для зберігання даних на ланцюгу, а також LLM, створених з використанням цих даних. Основною проблемою є доступність даних (DA), до оновлення Danksharding в Ethereum її пропускна здатність становила 0,08 МБ. Тим часом, для тренування AI моделей і реального розуміння зазвичай потрібна пропускна здатність від 50 до 100 ГБ даних на секунду. Така різниця в масштабах робить існуючі рішення на ланцюгах безсилими перед "ресурсоємними AI додатками".
0g.AI є представником цієї категорії проектів. Це централізоване рішення для зберігання, розроблене для високих вимог до продуктивності AI, його ключ
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
5
Репост
Поділіться
Прокоментувати
0/400
RektCoaster
· 18год тому
Не говоріть про концепції... спочатку створіть застосунок, який можна реалізувати.
Переглянути оригіналвідповісти на0
degenonymous
· 19год тому
обдурювати людей, як лохів, тільки тоді можна говорити про ідеали.
Переглянути оригіналвідповісти на0
not_your_keys
· 19год тому
Знову розігрівають старі страви, обдурюючи людей, як лохів.
Можливості та виклики злиття AI та Web3: повна стека інновацій від даних до Обчислювальної потужності
AI+Web3: Вежа та Площа
ТЛ; ДОКТОР
Проекти Web3 з концепцією ШІ стали об'єктами залучення капіталу на первинному та вторинному ринках.
Можливості Web3 в AI-індустрії проявляються у використанні розподілених стимулів для координації потенційних постачань у довгому хвості, між даними, зберіганням та обчисленнями; одночасно з цим створюючи відкриті моделі та децентралізований ринок для AI-агентів.
Штучний інтелект в індустрії Web3 в основному використовується в ланцюгових фінансах (криптовалютні платежі, торгівля, аналіз даних) та для допомоги в розробці.
Корисність AI+Web3 проявляється в їх взаємодоповнювальності: Web3 обіцяє протистояти централізації AI, а AI, в свою чергу, обіцяє допомогти Web3 вийти за межі.
! AI+Web3: Вежі та Плази
Вступ
Останні два роки розвиток ШІ справді прискорився. Хвиля, викликана Chatgpt, не лише відкрила новий світ генеративного штучного інтелекту, але й викликала величезний резонанс у сфері Web3.
Під впливом концепції ШІ фінансування крипторинку, яке сповільнилося, помітно зросло. Лише за першу половину 2024 року 64 проекти Web3+AI завершили фінансування, а операційна система на базі штучного інтелекту Zyber365 в рамках раунду A досягла найбільшої суми фінансування в 100 мільйонів доларів.
Ринок другорядних активів став ще більш процвітаючим. Дані Coingecko свідчать про те, що за короткий період трохи більше року загальна капіталізація AI-сфери досягла 48,5 мільярдів доларів, а обсяг торгів за останні 24 години наблизився до 8,6 мільярдів доларів. Очевидні переваги, пов'язані з прогресом у основних AI-технологіях, стали помітними: після випуску моделі OpenAI Sora для перетворення тексту в відео середня ціна в секторі AI зросла на 151%. Ефект AI також поширився на один із сегментів криптовалют, що приваблюють інвестиції — Meme: перша концепція AI Agent MemeCoin — GOAT швидко здобула популярність і отримала оцінку в 1,4 мільярда доларів, успішно піднявши хвилю AI Meme.
Дослідження та теми, пов'язані з AI+Web3, також на піку популярності: від AI+Depin до AI Memecoin, а тепер до поточних AI Agent та AI DAO, емоція FOMO вже не встигає за швидкістю зміни нових наративів.
AI+Web3, ця комбінація термінів, що переповнена гарячими грошима, трендами та фантазіями про майбутнє, неминуче сприймається як шлюб, організований капіталом. Нам здається, що важко розрізнити під цим розкішним покривалом, чи є це ігровим полем спекулянтів, чи переддень вибуху світанку?
Щоб відповісти на це питання, ключове міркування для обох сторін полягає в тому, чи стане краще з іншою стороною? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми намагаємося поглянути на цю структуру, спираючись на досягнення попередників: як Web3 може відігравати роль на всіх етапах технологічного стеку AI, і що нове життя AI може принести Web3?
Частина 1 Які можливості Web3 під стеком AI?
Перш ніж розпочати цю тему, нам потрібно зрозуміти технологічний стек великих моделей ШІ:
Використовуючи більш зрозумілу мову для опису всього процесу: «велика модель» подібна до людського мозку, на ранніх стадіях цей мозок належить новонародженій дитині, яка тільки-но з'явилася на світ, і їй потрібно спостерігати та отримувати величезну кількість інформації з навколишнього світу, щоб зрозуміти цей світ, це етап «збирання» даних. Оскільки комп'ютери не мають людських зорових, слухових та інших сенсорів, перед навчанням масштабна неструктурована інформація ззовні повинна бути перетворена через «попередню обробку» в інформаційний формат, зрозумілий та корисний для комп'ютера.
Після введення даних штучний інтелект через «навчання» створює модель, яка має здатність розуміти та прогнозувати, що можна вважати процесом, подібним до того, як немовля поступово розуміє та вивчає навколишній світ. Параметри моделі подібні до мовних навичок немовляти, які постійно коригуються під час навчання. Коли вміст навчання починає розділятися на предмети, або взаємодія з людьми дає зворотний зв'язок і корекцію, це переходить до етапу «фіншування» великої моделі.
Діти, поступово дорослішаючи і навчаючись говорити, можуть розуміти значення в нових розмовах і висловлювати свої почуття та думки. Ця стадія схожа на «інференцію» у великих моделях штучного інтелекту, коли модель може прогнозувати та аналізувати нові мовні та текстові введення. Немовлята через мовні здібності виражають почуття, описують об'єкти та вирішують різноманітні проблеми, що теж схоже на те, як великі моделі штучного інтелекту, після завершення навчання, застосовуються на етапі інференції для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.
А AI Agent наближається до наступної форми великої моделі — здатної самостійно виконувати завдання та переслідувати складні цілі, яка не тільки має здатність до мислення, але й може запам'ятовувати, планувати, а також використовувати інструменти для взаємодії зі світом.
Наразі, щодо болючих місць AI на різних стекових рівнях, Web3 наразі попередньо сформував багаторівневу, взаємопов'язану екосистему, яка охоплює всі етапи процесу моделей AI.
! AI+Web3: Вежі та Квадрати
Один. Базовий рівень: обчислювальна потужність та дані Airbnb
Потужність
Наразі однією з найвищих витрат штучного інтелекту є обчислювальна потужність та енергія, необхідні для навчання моделей і моделювання.
Один приклад — це те, що для навчання моделі LLAMA3 від Meta потрібно 16000 графічних процесорів H100, вироблених NVIDIA (це провідний графічний процесор, спеціально розроблений для штучного інтелекту та високопродуктивних обчислювальних навантажень), що займає 30 днів. Ціна на версію з 80 ГБ коливається від 30,000 до 40,000 доларів, що вимагає інвестицій у обчислювальне обладнання (GPU + мережеві чіпи) у розмірі від 400 до 700 мільйонів доларів, при цьому щомісячні тренування споживають 1.6 мільярда кіловат-годин, а витрати на енергію складають майже 20 мільйонів доларів на місяць.
Розвантаження обчислювальної потужності ШІ є однією з перших областей перетворення Web3 з ШІ — DePin (децентралізована мережа фізичної інфраструктури). На даний момент сайт даних DePin Ninja вже представив більше 1400 проектів, серед яких представлені проекти з обміну потужністю GPU, такі як io.net, Aethir, Akash, Render Network тощо.
Основна логіка полягає в тому, що платформа дозволяє особам або організаціям, які мають невикористані ресурси GPU, вносити свій обчислювальний потенціал у децентралізований спосіб без необхідності отримання дозволу. Це підвищує використання недоактивованих ресурсів GPU через онлайн-ринок покупців і продавців, подібний до Uber або Airbnb, а кінцеві користувачі отримують більш економічні та ефективні обчислювальні ресурси; одночасно механізм стейкінгу забезпечує, що у разі порушення механізму контролю якості або переривання мережі постачальники ресурсів отримують відповідні санкції.
Його особливістю є:
Збір невикористаних ресурсів GPU: постачальники в основному складаються з незалежних малих і середніх дата-центрів, крипто-майнінгових компаній та інших операторів, які мають надлишок обчислювальних ресурсів, механізм консенсусу - PoS для майнінгового обладнання, як-от FileCoin і ETH майнери. Наразі також є проекти, які прагнуть запустити обладнання з нижчим порогом входу, такі як exolab, що використовує MacBook, iPhone, iPad та інші локальні пристрої для створення обчислювальної мережі для роботи з великими моделями.
Перед довгим хвостом ринку обчислювальної потужності ІІ:
a. «З технологічної точки зору» децентралізований ринок обчислювальних потужностей є більш підходящим для етапів інференції. Навчання більше залежить від обробної спроможності величезних кластерів GPU, тоді як інференція вимагає від GPU відносно низької обчислювальної потужності, як Aethir, що фокусується на рендерингу з низькою затримкою й застосуваннях AI інференції.
b. "Щодо попиту" малі та середні споживачі обчислювальних потужностей не будуть окремо навчати свої великі моделі, а просто виберуть оптимізацію та доопрацювання навколо кількох провідних великих моделей, і ці сценарії природно підходять для розподілених невикористаних обчислювальних ресурсів.
Дані
Дані є основою штучного інтелекту. Якщо немає даних, обчислення стає безглуздим, а зв'язок між даними та моделлю подібний до прислів'я "Сміття на вході, сміття на виході". Кількість даних та якість введення визначають кінцеву якість виходу моделі. Щодо навчання сучасних AI моделей, дані визначають мовні можливості моделі, здатність до розуміння, навіть цінності та людяність. Наразі труднощі в потребах AI у даних в основному зосереджені на чотирьох аспектах:
Голод даних: навчання моделей ШІ залежить від великої кількості вхідних даних. Відкриті дані показують, що OpenAI навчила GPT-4 з параметрами на трильйонному рівні.
Якість даних: З поєднанням ШІ та різних галузей виникають нові вимоги до якості даних, такі як своєчасність даних, різноманітність даних, професійність галузевих даних та включення нових джерел даних, таких як емоції з соціальних медіа.
Проблеми конфіденційності та відповідності: В даний час різні країни та компанії поступово усвідомлюють важливість якісних наборів даних і запроваджують обмеження на збори даних.
Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Відкриті дані показують, що понад 30% витрат на дослідження і розробки в AI-компаніях йдуть на збір і обробку базових даних.
На даний момент рішення web3 проявляються в наступних чотирьох аспектах:
Дати можливість справжнім учасникам внесків також брати участь у створенні цінності, яку приносить дані, а також отримувати більш приватні та цінні дані від користувачів за низькою вартістю за допомогою розподіленої мережі та механізмів заохочення - це бачення Web3.
Grass є децентралізованим рівнем даних і мережею, користувачі можуть запускати вузли Grass, щоб вносити свій вільний пропускну здатність і релейний трафік для захоплення реальних даних з усього Інтернету та отримувати винагороду у токенах;
Vana впроваджує унікальну концепцію пулу ліквідності даних (DLP), де користувачі можуть завантажувати свої приватні дані (наприклад, історію покупок, звички перегляду, активність у соціальних мережах тощо) до певного DLP та гнучко вибирати, чи надавати ці дані для використання певним третім особам;
У PublicAI користувачі можуть використовувати #AI或#Web3 як категорійний ярлик на X та @PublicAI для збору даних.
Зараз Grass та OpenLayer обидва розглядають можливість додавання цього ключового етапу - позначення даних.
Synesis запропонував концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороди, надаючи розмічені дані, коментарі або інші форми внесків.
Проект мітки даних Sapien ігровизує завдання з мітками та дозволяє користувачам заморожувати бали, щоб заробити більше балів.
Серед поширених технологій конфіденційності в Web3 є:
Довірене виконуване середовище(TEE), наприклад, Super Protocol;
Повна гомоморфна криптографія (FHE), наприклад, BasedAI, Fhenix.io або Inco Network;
Технологія нульового знання (zk), така як протокол Reclaim, використовує технологію zkTLS для генерування доказів нульового знання для HTTPS-трафіку, що дозволяє користувачам безпечно імпортувати активність, репутацію та ідентифікаційні дані з зовнішніх веб-сайтів без розкриття чутливої інформації.
Проте, наразі ця сфера все ще на ранній стадії, більшість проєктів все ще в процесі дослідження, нинішня проблема полягає в тому, що витрати на обчислення занадто високі, кілька прикладів:
Фреймворк zkML EZKL потребує приблизно 80 хвилин для генерації доказу моделі 1M-nanoGPT.
Згідно з даними Modulus Labs, витрати на zkML вищі ніж на чисті обчислення більш ніж в 1000 разів.