AI dan Blockchain: dari evolusi teknologi ke penataan rantai industri

Integrasi AI dan Blockchain: Dari Teknologi ke Aplikasi

Perkembangan pesat industri kecerdasan buatan baru-baru ini dianggap oleh beberapa orang sebagai permulaan revolusi industri keempat. Munculnya model bahasa besar secara signifikan meningkatkan efisiensi di berbagai sektor, diperkirakan meningkatkan sekitar 20% efisiensi kerja secara keseluruhan di Amerika Serikat. Pada saat yang sama, kemampuan generalisasi yang dibawa oleh model besar dianggap sebagai paradigma desain perangkat lunak yang sama sekali baru. Dibandingkan dengan desain kode yang tepat di masa lalu, pengembangan perangkat lunak saat ini lebih banyak mengintegrasikan kerangka model besar yang memiliki kemampuan generalisasi kuat ke dalam perangkat lunak, sehingga perangkat lunak memiliki daya ungkap yang lebih kuat dan kemampuan input-output yang lebih luas. Teknologi pembelajaran mendalam memang membawa gelombang kemakmuran baru bagi industri AI, dan gejolak ini juga secara bertahap menyebar ke industri cryptocurrency.

Laporan ini akan membahas secara rinci tentang perjalanan pengembangan industri AI, klasifikasi teknologi, serta dampak penemuan teknologi pembelajaran mendalam terhadap industri. Kemudian, akan dilakukan analisis mendalam mengenai status dan tren pengembangan hulu dan hilir rantai industri seperti GPU, komputasi awan, sumber data, dan perangkat tepi dalam pembelajaran mendalam. Selanjutnya, akan dibahas secara esensial hubungan antara Crypto dan industri AI, serta dilakukan pemetaan terhadap pola rantai industri AI yang terkait dengan Crypto.

Pemula Pengetahuan丨AI x Crypto: Dari Nol ke Puncak

Perkembangan Industri AI

Industri AI dimulai dari tahun 1950-an, untuk mewujudkan visi kecerdasan buatan, akademisi dan industri di berbagai era dan latar belakang disiplin ilmu yang berbeda telah mengembangkan berbagai aliran untuk mewujudkan kecerdasan buatan.

Teknologi kecerdasan buatan modern terutama menggunakan istilah "pembelajaran mesin", di mana inti konsepnya adalah membiarkan mesin mengandalkan data untuk berulang kali beriterasi dalam tugas untuk meningkatkan kinerja sistem. Langkah utama adalah memasukkan data ke dalam algoritma, melatih model dengan data ini, menguji dan menerapkan model, serta menggunakan model untuk menyelesaikan tugas prediksi otomatis.

Saat ini, ada tiga aliran utama dalam pembelajaran mesin, yaitu koneksionisme, simbolisme, dan behaviorisme, yang masing-masing meniru sistem saraf manusia, pemikiran, dan perilaku.

新人科普丨AI x Crypto:从零到巅峰

Dan saat ini, koneksionisme yang diwakili oleh jaringan saraf mendominasi, yang juga dikenal sebagai pembelajaran mendalam, alasan utamanya adalah karena arsitektur ini memiliki satu lapisan input, satu lapisan output, tetapi memiliki beberapa lapisan tersembunyi. Begitu jumlah lapisan dan neuron serta parameter cukup banyak, akan ada cukup kesempatan untuk menyesuaikan tugas umum yang kompleks. Melalui input data, parameter neuron dapat terus disesuaikan, akhirnya setelah melalui banyak data, neuron tersebut akan mencapai kondisi optimal, yang juga dikenal sebagai "kedalaman" - jumlah lapisan dan neuron yang cukup banyak.

Pemula Populer丨AI x Crypto: Dari Nol ke Puncak

Dan teknologi pembelajaran mendalam berbasis jaringan saraf juga mengalami beberapa iterasi dan evolusi teknologi, dari jaringan saraf awal, ke jaringan saraf feedforward, RNN, CNN, GAN, akhirnya berevolusi menjadi model besar modern seperti teknologi Transformer yang digunakan oleh GPT. Teknologi Transformer hanyalah satu arah evolusi dari jaringan saraf, menambahkan sebuah konverter ( Transformer ), yang digunakan untuk mengkodekan semua modal ( seperti audio, video, gambar, dll ) menjadi nilai numerik yang sesuai untuk merepresentasikannya. Kemudian dimasukkan ke dalam jaringan saraf, sehingga jaringan saraf dapat menyesuaikan diri dengan jenis data apa pun, yaitu mewujudkan multimodal.

Perkembangan AI telah melalui tiga gelombang teknologi. Gelombang pertama terjadi pada tahun 1960-an, sepuluh tahun setelah teknologi AI diperkenalkan. Gelombang ini dipicu oleh perkembangan teknologi simbolis, yang menyelesaikan masalah pemrosesan bahasa alami secara umum dan dialog antara manusia dan mesin. Pada waktu yang sama, sistem pakar lahir, yang merupakan sistem pakar DENRAL yang diselesaikan oleh Universitas Stanford. Sistem ini memiliki pengetahuan kimia yang sangat kuat dan menghasilkan inferensi melalui pertanyaan untuk memberikan jawaban yang sama dengan pakar kimia. Sistem pakar kimia ini dapat dianggap sebagai kombinasi antara basis pengetahuan kimia dan sistem inferensi.

Gelombang kedua teknologi AI terjadi pada tahun 1997, di mana IBM Deep Blue mengalahkan juara catur Garry Kasparov dengan skor 3.5:2.5, kemenangan ini dianggap sebagai tonggak sejarah dalam kecerdasan buatan.

Gelombang ketiga teknologi AI terjadi pada tahun 2006. Tiga raja deep learning, Yann LeCun, Geoffrey Hinton, dan Yoshua Bengio mengusulkan konsep deep learning, sebuah algoritma yang menggunakan jaringan saraf buatan sebagai arsitektur untuk melakukan pembelajaran representasi data. Setelah itu, algoritma deep learning secara bertahap berevolusi, dari RNN, GAN hingga Transformer dan Stable Diffusion, algoritma-algoritma ini bersama-sama membentuk gelombang teknologi ketiga ini, yang juga merupakan masa kejayaan koneksionisme.

新人科普丨AI x Crypto:从零到巅峰

Rantai industri pembelajaran mendalam

Model bahasa besar saat ini menggunakan metode pembelajaran mendalam berbasis jaringan saraf. Dengan GPT sebagai pelopor, model besar ini telah menciptakan gelombang baru dalam kecerdasan buatan, banyak pemain memasuki arena ini, dan kami juga menemukan bahwa pasar memiliki permintaan yang besar terhadap data dan daya komputasi. Oleh karena itu, dalam bagian laporan ini, kami terutama menjelajahi rantai industri algoritma pembelajaran mendalam, bagaimana hulu dan hilir dalam industri AI yang dipimpin oleh algoritma pembelajaran mendalam terbentuk, serta bagaimana keadaan hulu dan hilir serta hubungan penawaran dan permintaan, serta perkembangan di masa depan.

Pertama, kita perlu memperjelas bahwa saat melakukan pelatihan model besar LLMs yang dipimpin oleh GPT berbasis teknologi Transformer (, ada tiga langkah yang harus diikuti.

Sebelum pelatihan, karena berbasis Transformer, konverter perlu mengubah input teks menjadi nilai, proses ini disebut "Tokenization", setelah itu nilai-nilai ini disebut Token. Berdasarkan aturan pengalaman umum, satu kata atau karakter dalam bahasa Inggris dapat secara kasar dianggap sebagai satu Token, sementara setiap karakter Han dapat dianggap secara kasar sebagai dua Token. Ini juga merupakan unit dasar yang digunakan dalam penilaian GPT.

Langkah pertama, pra-pelatihan. Dengan memberikan cukup banyak pasangan data ke lapisan input untuk mencari parameter terbaik dari setiap neuron di bawah model tersebut, pada saat ini diperlukan banyak data, dan proses ini juga merupakan proses yang paling menghabiskan daya komputasi, karena perlu mengulang iterasi neuron mencoba berbagai parameter.

Langkah kedua, penyetelan. Penyetelan adalah memberikan sejumlah kecil data yang sangat berkualitas untuk pelatihan, perubahan seperti ini akan membuat keluaran model memiliki kualitas yang lebih tinggi, karena pra-pelatihan membutuhkan banyak data, tetapi banyak data mungkin mengandung kesalahan atau berkualitas rendah.

Langkah ketiga, pembelajaran penguatan. Pertama, sebuah model baru akan dibangun, yang kita sebut sebagai "model penghargaan", tujuan dari model ini sangat sederhana, yaitu untuk mengurutkan hasil keluaran. Setelah itu, model ini digunakan untuk menentukan apakah keluaran model besar kita berkualitas tinggi, sehingga kita dapat menggunakan model penghargaan untuk secara otomatis mengiterasi parameter model besar.

Singkatnya, dalam proses pelatihan model besar, pra-pelatihan memiliki permintaan yang sangat tinggi terhadap jumlah data, dan daya komputasi GPU yang dibutuhkan juga yang terbanyak, sementara fine-tuning memerlukan data berkualitas lebih tinggi untuk memperbaiki parameter, dan pembelajaran penguatan dapat menggunakan model reward untuk iterasi parameter berulang untuk menghasilkan hasil yang lebih berkualitas.

Selama proses pelatihan, semakin banyak parameter yang digunakan, maka langit-langit kemampuan generalisasi juga semakin tinggi. Oleh karena itu, kinerja model besar terutama ditentukan oleh tiga aspek, yaitu jumlah parameter, jumlah dan kualitas data, serta daya komputasi, ketiga hal ini secara bersama-sama mempengaruhi kualitas hasil dan kemampuan generalisasi model besar.

![Pengantar untuk Pemula丨AI x Crypto: Dari Nol ke Puncak])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

Hubungan Crypto dan AI

Blockchain mendapatkan manfaat dari perkembangan teknologi ZK, yang berevolusi menjadi pemikiran desentralisasi + tanpa kepercayaan. Kita kembali ke awal penciptaan blockchain, yaitu rantai Bitcoin. Dalam makalah Satoshi Nakamoto, ia pertama kali menyebutnya sebagai sistem transfer nilai yang tanpa kepercayaan. Kemudian Vitalik dan lainnya menerbitkan makalah yang meluncurkan platform kontrak pintar yang desentralisasi, tanpa kepercayaan, dan pertukaran nilai.

Kembali ke esensi, kami percaya bahwa seluruh jaringan blockchain adalah jaringan nilai, setiap transaksi adalah konversi nilai yang berbasis pada token dasar. Nilai di sini terwujud dalam bentuk Token, dan Tokenomics adalah aturan konkret yang mencerminkan nilai Token.

Token dan teknologi blockchain sebagai cara untuk mendefinisikan dan menemukan kembali nilai sangat penting bagi setiap industri, termasuk industri AI. Dalam industri AI, penerbitan token dapat memungkinkan berbagai aspek dalam rantai industri AI untuk melakukan restrukturisasi nilai, yang akan mendorong lebih banyak orang untuk bersedia berinvestasi dalam setiap segmen di industri AI, karena keuntungan yang dihasilkan akan menjadi lebih signifikan, tidak hanya aliran kas yang menentukan nilai saat ini, dan sinergi token akan meningkatkan nilai infrastruktur, yang secara alami akan menyebabkan terbentuknya paradigma aplikasi ramping dan protokol gemuk.

Kedua, semua proyek dalam rantai industri AI akan mendapatkan keuntungan dari apresiasi modal, dan token ini dapat memberikan umpan balik kepada ekosistem serta mendorong lahirnya suatu pemikiran filosofis.

Ekonomi token jelas memiliki dampak positif terhadap industri, sifat blockchain yang tidak dapat diubah dan tidak memerlukan kepercayaan juga memiliki arti praktis bagi industri AI, dapat mewujudkan beberapa aplikasi yang memerlukan kepercayaan, seperti data pengguna kami yang dapat diizinkan pada model tertentu, tetapi memastikan model tidak mengetahui data spesifik, memastikan model tidak membocorkan data, memastikan data nyata yang dihasilkan dari inferensi model tersebut. Ketika GPU tidak cukup, dapat mendistribusikan melalui jaringan blockchain, ketika GPU diiterasi, GPU yang tidak terpakai dapat menyumbangkan daya komputasi ke jaringan, menemukan kembali nilai sisa, ini adalah hal yang hanya dapat dilakukan oleh jaringan nilai global.

Singkatnya, ekonomi token dapat mendorong pembentukan dan penemuan nilai, buku besar terdesentralisasi dapat menyelesaikan masalah kepercayaan, dan mengalirkan nilai kembali secara global.

![Pemula Pengetahuan丨AI x Crypto: Dari Nol ke Puncak])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(

Gambaran Umum Proyek AI Terkait Industri Crypto

) Pasokan GPU

Saat ini, proyek Render yang paling banyak digunakan, diluncurkan pada tahun 2020, terutama untuk tugas rendering video yang bukan model besar. Skenario yang dituju Render memang berbeda dengan AI, sehingga secara ketat tidak tergolong dalam sektor AI. Selain itu, bisnis rendering video mereka memang memiliki permintaan nyata, sehingga pasar komputasi awan GPU tidak hanya dapat ditujukan untuk pelatihan dan inferensi model AI, tetapi juga dapat diterapkan pada tugas rendering tradisional, yang mengurangi risiko pasar yang bergantung pada satu pasar tunggal.

Dalam rantai industri AI di Crypto, pasokan daya komputasi tanpa diragukan lagi adalah yang terpenting. Menurut prediksi industri, permintaan daya komputasi GPU pada tahun 2024 diperkirakan mencapai sekitar 75 miliar USD, dan pada tahun 2032 diperkirakan mencapai sekitar 773 miliar USD, dengan tingkat pertumbuhan tahunan gabungan (CAGR) sekitar 33,86%.

Tingkat iterasi GPU mengikuti hukum Moore (18-24, kinerja berlipat ganda setiap bulan, dan harga turun setengah ). Maka, permintaan untuk berbagi daya komputasi GPU akan menjadi sangat besar, karena ledakan pasar GPU akan menciptakan banyak GPU dari generasi yang tidak terbaru di masa depan di bawah pengaruh hukum Moore. Saat itu, GPU yang tidak terpakai ini akan terus memberikan nilai sebagai daya komputasi ekor panjang dalam jaringan berbagi. Oleh karena itu, kami memang optimis tentang potensi jangka panjang dan kegunaan nyata dari jalur ini, tidak hanya untuk bisnis model kecil dan menengah, tetapi juga untuk bisnis rendering tradisional yang akan membentuk permintaan yang cukup kuat.

Pemula Populer丨AI x Crypto: Dari Nol ke Puncak

data

Proyek yang saat ini diluncurkan termasuk EpiK Protocol, Synesis One, dan Masa, perbedaan terletak pada EpiK Protocol dan Synesis One yang mengumpulkan data sumber terbuka, sementara Masa berbasis teknologi ZK, yang memungkinkan pengumpulan data privasi, sehingga lebih ramah bagi pengguna.

Dibandingkan dengan perusahaan data tradisional Web2 lainnya, penyedia data Web3 memiliki keunggulan di sisi pengumpulan data, karena individu dapat menyumbangkan data non-pribadi mereka sendiri, sehingga jangkauan proyek menjadi sangat luas, tidak hanya untuk ToB, tetapi juga dapat memberikan penilaian untuk data dari pengguna mana pun, semua data masa lalu menjadi berharga, dan karena adanya ekonomi token, nilai dan harga jaringan saling bergantung, token tanpa biaya akan meningkat seiring dengan meningkatnya nilai jaringan, dan token ini akan mengurangi biaya pengembang, digunakan untuk memberikan imbalan kepada pengguna, motivasi pengguna untuk menyumbangkan data akan menjadi lebih kuat.

Pemula Pengetahuan丨AI x Crypto: Dari Nol ke Puncak

( ZKML

Jika data ingin mencapai perhitungan privasi dan pelatihan, saat ini solusi ZK yang paling banyak digunakan di industri, menggunakan teknologi enkripsi homomorfik, melakukan inferensi data di luar rantai dan kemudian mengunggah hasilnya bersamaan dengan bukti ZK, maka privasi data dan inferensi dapat dijamin.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 7
  • Bagikan
Komentar
0/400
GasGuruvip
· 2jam yang lalu
Teknologi mengubah tren masa depan
Lihat AsliBalas0
OldLeekNewSicklevip
· 16jam yang lalu
Dua angin besar sedang bergabung
Lihat AsliBalas0
TheShibaWhisperervip
· 17jam yang lalu
Cepat maju ke kecerdasan buatan umum
Lihat AsliBalas0
MrRightClickvip
· 17jam yang lalu
terobosan teknologi yang revolusioner
Lihat AsliBalas0
DefiSecurityGuardvip
· 17jam yang lalu
Risiko keamanan meningkat pesat.
Lihat AsliBalas0
StakeOrRegretvip
· 17jam yang lalu
Sangat sulit untuk tidak menggoreng AI.
Lihat AsliBalas0
LightningLadyvip
· 17jam yang lalu
Teknologi ini terlalu bull!
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)