AI ve Blok Zinciri'nin Entegrasyonu: Teknolojiden Uygulamaya
Son zamanlarda yapay zeka endüstrisinin hızlı gelişimi bazı insanlar tarafından dördüncü sanayi devriminin başlangıcı olarak görülmektedir. Büyük dil modellerinin ortaya çıkışı, her sektörde verimliliği önemli ölçüde artırmış olup, ABD genelinde iş verimliliğini yaklaşık %20 oranında artırdığı tahmin edilmektedir. Aynı zamanda, büyük modellerin getirdiği genelleme yeteneği, tamamen yeni bir yazılım tasarım paradigması olarak kabul edilmektedir. Geçmişteki hassas kod tasarımı ile kıyaslandığında, günümüz yazılım geliştirme süreçleri daha fazla genelleme yeteneğine sahip büyük model çerçevelerinin yazılımlara entegre edilmesine odaklanmıştır, böylece yazılımlar daha güçlü bir ifade gücü ve daha geniş bir girdi/çıktı kapasitesine sahip olmaktadır. Derin öğrenme teknolojisi gerçekten de AI endüstrisine yeni bir refah dalgası getirmiştir ve bu dalga giderek kripto para endüstrisine de yayılmaktadır.
Bu rapor, AI endüstrisinin gelişim sürecini, teknoloji sınıflandırmalarını ve derin öğrenme teknolojisinin icadının sektöre olan etkisini ayrıntılı olarak inceleyecektir. Daha sonra, derin öğrenmedeki GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağı akışındaki gelişim durumu ve trendlerini derinlemesine analiz edecektir. Ardından, Crypto ile AI endüstrisi arasındaki ilişkiyi esasen tartışacak ve Crypto ile ilgili AI endüstrisi zincirinin düzenini gözden geçirecektir.
AI sektörünün gelişim süreci
AI sektörü 20. yüzyılın 50'li yıllarından itibaren başlamış, yapay zekanın vizyonunu gerçekleştirmek için akademi ve sanayi, farklı dönemlerde farklı disiplin arka planlarında yapay zekayı gerçekleştirmek için çeşitli akımlar geliştirmiştir.
Modern yapay zeka teknolojisi esasen "makine öğrenimi" terimini kullanmaktadır, bu terimin temel prensibi makinelerin verilerden yararlanarak görevlerde sürekli olarak yineleme yaparak sistem performansını iyileştirmesidir. Temel adımlar, verilerin algoritmaya girilmesi, bu verilerle modelin eğitilmesi, modelin test edilip dağıtılması ve modelin otomatik tahmin görevlerini gerçekleştirmek için kullanılmasıdır.
Şu anda makine öğreniminde üç ana akım bulunmaktadır: bağlantıcılık, sembolistlik ve davranışçılık; bunlar sırasıyla insan sinir sistemini, düşünceyi ve davranışı taklit etmektedir.
Ve şu anda sinir ağlarıyla temsil edilen bağlantıcılık, ( derin öğrenme olarak da adlandırılmaktadır, bunun başlıca nedeni bu mimarinin bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasıdır; katman sayısı ve nöron ) parametre ( sayısı yeterince fazla olduğunda, karmaşık genel görevleri uyarlama şansı yeterince artar. Veri girişi ile nöronun parametreleri sürekli olarak ayarlanabilir, nihayetinde birçok veriyle deneyimledikten sonra, bu nöron en iyi duruma ulaşır ) parametre (, bu da "derinlik" teriminin kökenidir - yeterince fazla katman ve nöron.
![Yeni Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Ve sinir ağına dayalı derin öğrenme teknolojisi, en erken sinir ağlarından, ileri beslemeli sinir ağları, RNN, CNN, GAN'dan modern büyük modellere, örneğin GPT gibi, Transformer teknolojisini kullanarak birçok teknik iterasyon ve evrim geçirmiştir. Transformer teknolojisi, sinir ağlarının bir evrim yönüdür, tüm modlar ) Transformer ( için bir dönüştürücü ekler; ses, video, resim gibi ) verileri ilgili sayısal değerlerle temsil etmek için kodlar. Daha sonra bu veriler sinir ağına girdi olarak verilir, böylece sinir ağı her türlü veriyi uyumlu hale getirebilir ve bu da çok modlu gerçekleştirilmesini sağlar.
Yapay zeka gelişimi üç teknik dalgadan geçti, birincisi 20. yüzyılın 60'lı yıllarıdır. Bu, yapay zeka teknolojisinin önerildiği on yıl sonra gerçekleşti ve bu dalga, sembolist teknolojinin gelişimiyle ortaya çıktı. Bu teknoloji, genel doğal dil işleme ve insan-bilgisayar diyalogları sorunlarını çözdü. Aynı dönemde, uzman sistemler doğdu; bu, Stanford Üniversitesi tarafından tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü kimya bilgisine sahiptir ve sorunlar aracılığıyla çıkarım yaparak bir kimya uzmanı gibi cevaplar üretir. Bu kimya uzman sistemi, kimya bilgi tabanı ile çıkarım sisteminin birleşimi olarak görülebilir.
İkinci AI teknolojisi dalgası 1997 yılında meydana geldi, IBM'in Deep Blue'su 3.5:2.5 ile satranç şampiyonu Kasparov'u yendi, bu zafer yapay zekanın bir dönüm noktası olarak kabul edildi.
Üçüncü AI teknolojisi dalgası 2006 yılında meydana geldi. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, veri temsil öğrenimi için bir algoritma olan yapay sinir ağlarını temel alan derin öğrenme kavramını ortaya koydular. Sonrasında derin öğrenme algoritmaları, RNN, GAN'dan Transformer ve Stable Diffusion'a kadar evrim geçirdi, bu algoritmalar üçüncü teknoloji dalgasını şekillendirdi ve bu aynı zamanda bağlantıcılığın zirve dönemidir.
Derin Öğrenme Endüstri Zinciri
Mevcut büyük model dilleri, sinir ağına dayalı derin öğrenme yöntemlerini kullanmaktadır. GPT'nin öncülüğündeki büyük modeller, yapay zeka alanında bir dalga yarattı ve birçok oyuncu bu alana akın etti. Pazarın veri ve hesaplama gücüne olan talebinin hızla arttığını gözlemledik. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının sanayi zincirini keşfetmeye odaklanıyoruz. Derin öğrenme algoritmalarının hakim olduğu yapay zeka sektöründe, tedarik zincirinin nasıl oluştuğunu, tedarik ve talep ilişkisini, mevcut durumu ve gelecekteki gelişmeleri ele alıyoruz.
Öncelikle netleştirmemiz gereken, Transformer teknolojisine dayalı GPT'nin liderliğindeki LLM'lerin ( büyük modeli ) eğitimi sırasında toplamda üç aşamaya ayrıldığıdır.
Eğitimden önce, Transformer tabanlı olduğu için, dönüştürücünün metin girişini sayılara dönüştürmesi gerekir, bu süreç "Tokenizasyon" olarak adlandırılır, ardından bu sayılar Token olarak adlandırılır. Genel bir deneysel kurala göre, bir İngilizce kelime veya karakter kaba bir şekilde bir Token olarak kabul edilebilirken, her bir Çince karakter kaba bir şekilde iki Token olarak düşünülebilir. Bu da GPT'nin fiyatlandırmada kullandığı temel birimdir.
Birinci adım, ön eğitim. Giriş katmanına yeterince veri çifti vererek model altındaki her bir nöronun en iyi parametrelerini bulmak, bu aşamada büyük miktarda veriye ihtiyaç vardır ve bu süreç en fazla hesap gücü tüketen süreçtir çünkü nöronların çeşitli parametreleri denemesi için tekrar tekrar iterasyon yapılması gereklidir.
İkinci adım, ince ayar. İnce ayar, daha az ama çok kaliteli bir veri kümesi ile eğitmek demektir; bu tür bir değişiklik, modelin çıktısının daha yüksek kalitede olmasını sağlar çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hatalı veya düşük kaliteli olabilir.
Üçüncü adım, pekiştirmeli öğrenme. Öncelikle tamamen yeni bir model oluşturulacak, buna "ödül modeli" diyoruz, bu modelin amacı oldukça basit, çıktının sonuçlarını sıralamaktır. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kaliteli olup olmadığını belirlemek için kullanacağız, böylece bir ödül modeli ile büyük modelin parametrelerini otomatik olarak yineleyebiliriz.
Kısacası, büyük modellerin eğitim sürecinde, ön eğitim verinin miktarı için çok yüksek taleplerde bulunur, gereken GPU hesaplama gücü de en fazladır. İnce ayar ise parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar. Pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için parametreleri tekrar tekrar yinelemek için bir ödül modeli aracılığıyla gerçekleştirilebilir.
Eğitim sürecinde, parametre sayısı arttıkça genel performansın üst sınırı da yükselir. Bu nedenle, büyük modellerin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, işlem gücü. Bu üçü, büyük modelin sonuç kalitesini ve genel performansını ortaklaşa etkiler.
Crypto ve AI'nin ilişkisi
Blok Zinciri, ZK teknolojisinin gelişiminden faydalanarak merkeziyetsiz + güvensizleşme düşüncesine dönüştü. Blok Zinciri'nin yaratılışının başına dönecek olursak, bu Bitcoin Zinciri'dir. Nakamoto'nun makalesinde, bunu öncelikle güvensiz bir değer transfer sistemi olarak adlandırmıştır. Ardından Vitalik ve diğerleri, merkeziyetsiz, güvensiz ve değer değişimi sağlayan akıllı sözleşme platformunu tanıtan bir makale yayınladılar.
Özüne dönmek gerekirse, bütün Blok Zinciri ağının bir değer ağı olduğunu düşünüyoruz, her işlem temel token üzerine kurulu bir değer dönüşümüdür. Buradaki değer, Token biçiminde kendini gösterir ve Tokenomics, belirli bir Token'ın değerini yansıtan kurallardır.
Tokenler ve blok zinciri teknolojisi, değerlerin yeniden tanımlanması ve keşfi açısından her sektör için hayati öneme sahip olup, AI sektörünü de kapsamaktadır. AI sektöründe token çıkarımı, AI endüstri zincirinin farklı yönlerinde değer yeniden şekillendirilmesini sağlayarak, daha fazla insanı AI sektöründeki farklı alanlara derinleşmeye teşvik edecektir. Bunun sonucunda sağlanan kazançlar daha belirgin hale gelecektir; bu sadece nakit akışına bağlı olmayacak, ayrıca tokenların sinerjisi, altyapının değerini artıracak ve bu doğal olarak şişkin protokol ve ince uygulama paradigmasının oluşumuna yol açacaktır.
İkincisi, AI endüstri zincirindeki tüm projeler sermaye değer artışı kazancı elde edecek ve bu token, ekosisteme geri dönüş sağlamanın yanı sıra belirli bir felsefi düşüncenin doğuşunu da teşvik edecektir.
Token ekonomisinin sektöre etkisi açıkça olumlu bir yön taşımaktadır, blok zinciri teknolojisinin değiştirilemez ve güvene ihtiyaç duymayan doğası da AI sektöründe pratik bir anlam taşımaktadır. Bu, bazı güven gerektiren uygulamaların gerçekleştirilmesini sağlayabilir, örneğin kullanıcı verilerimizin belirli bir model üzerinde kullanılmasına izin vermesi, ancak modelin belirli verileri bilmemesini, modelin verileri sızdırmamasını ve modelin çıkarımının gerçek verilerini döndürmesini sağlamaktadır. GPU yetersiz olduğunda, blok zinciri ağı üzerinden dağıtım yapılabilmekte, GPU iterasyonları sırasında, kullanılmayan GPU'lar ağa hesaplama gücü katkısında bulunabilmekte ve kalan değeri yeniden keşfetmektedir. Bu, küresel bir değer ağı sadece böyle bir şeyi başarabilir.
Sonuç olarak, token ekonomisi değerin yeniden şekillendirilmesini ve keşfini teşvik edebilir, merkeziyetsiz defter güven sorunlarını çözebilir ve değerin küresel ölçekte yeniden akışını sağlayabilir.
Kripto sektörü AI ile ilgili proje genel görünümü
( GPU arz tarafı
Şu anda en çok kullanılan Render projesi, 2020 yılında piyasaya sürüldü ve esasen büyük model dışındaki video renderleme görevleri için tasarlandı. Render, AI ile benzer senaryolara hitap etmediği için sıkı anlamda AI alanına girmemektedir. Ayrıca, video renderleme hizmetinin gerçekten belirli bir talebi vardır, bu nedenle GPU bulut hesaplama pazarı yalnızca AI modellerinin eğitimi ve çıkarımı için değil, aynı zamanda geleneksel renderleme görevlerine de uygulanabilir; bu da GPU bulut pazarının tek bir pazar riskine bağımlılığını azaltmaktadır.
Crypto'da AI ile ilgili sanayi zincirinde, hesaplama gücü tedariki kuşkusuz en önemli noktadır. Sektör tahminlerine göre, 2024 yılında GPU'nun hesaplama gücü talebinin yaklaşık 75 milyar dolar, 2032 yılında ise yaklaşık 773 milyar dolarlık bir pazar talebi olacağı, yıllık bileşik büyüme oranı )CAGR### yaklaşık %33,86 olacaktır.
GPU'nun iterasyon oranı Moore Yasası'na uymaktadır. ( 18-24 ayda performans iki katına çıkarken, fiyat yarı yarıya düşecektir. ) Bu durumda, paylaşılan GPU hesaplama gücüne olan talep oldukça artacaktır. Çünkü GPU pazarındaki patlama, gelecekte Moore Yasası'nın etkisi altında çok sayıda eski nesil GPU'nun ortaya çıkmasına yol açacaktır. Bu aşamada, bu kullanılmayan GPU'lar, paylaşılan ağda uzun kuyruk hesaplama gücü olarak değerini sürdürmeye devam edecektir. Bu nedenle, bu alanın uzun vadeli potansiyeline ve gerçek faydasına gerçekten güveniyoruz; sadece küçük ve orta ölçekli modellerin işlerinde değil, aynı zamanda geleneksel render işlerinde de oldukça güçlü bir talep oluşacaktır.
( verisi
Şu anda aktif olan projeler arasında EpiK Protocol, Synesis One, Masa gibi projeler bulunmaktadır. Farkları, EpiK Protocol ve Synesis One'ın açık veri kaynaklarını toplaması iken, Masa'nın ZK teknolojisine dayalı olarak gizli verilerin toplanmasını sağlamasıdır, bu da kullanıcılar için daha dostça bir yaklaşım sunmaktadır.
Diğer Web2 geleneksel veri işletmeleriyle karşılaştırıldığında, Web3 veri sağlayıcılarının veri toplama tarafında sahip olduğu avantaj, bireylerin gizlilik içermeyen verilerini katkıda bulunabilmeleridir. Bu sayede projelerin erişim alanı oldukça genişleyecek, yalnızca B2B değil, aynı zamanda her kullanıcının verisi için fiyatlandırma yapılabilecektir. Geçmişteki her veri artık bir değere sahip olacak ve token ekonomisinin varlığı sayesinde, ağın değeri ve fiyatı birbirine bağımlıdır. 0 maliyetli tokenlar, ağın değeri arttıkça yükselebilecek ve bu tokenlar geliştiricilerin maliyetlerini düşürecek, kullanıcıları ödüllendirmek için kullanılacaktır. Kullanıcıların veri katkısında bulunma motivasyonu daha da artacaktır.
![Yeni başlayanlar için bilgi丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp###
( ZKML
Eğer verilerin gizlilik hesaplaması ve eğitimi gerçekleştirilmek isteniyorsa, şu anda sektörde yaygın olarak kullanılan ZK çözümü, homomorfik şifreleme teknolojisini kullanarak verileri zincir dışı çıkarım yapar ve ardından sonuçları ve ZK kanıtını yükler, böylece verilerin gizliliği ve çıkarımı garanti altına alınabilir.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Yapay Zeka ve Blok Zinciri Entegrasyonu: Teknolojik Gelişimden Sektör Zinciri Düzenine
AI ve Blok Zinciri'nin Entegrasyonu: Teknolojiden Uygulamaya
Son zamanlarda yapay zeka endüstrisinin hızlı gelişimi bazı insanlar tarafından dördüncü sanayi devriminin başlangıcı olarak görülmektedir. Büyük dil modellerinin ortaya çıkışı, her sektörde verimliliği önemli ölçüde artırmış olup, ABD genelinde iş verimliliğini yaklaşık %20 oranında artırdığı tahmin edilmektedir. Aynı zamanda, büyük modellerin getirdiği genelleme yeteneği, tamamen yeni bir yazılım tasarım paradigması olarak kabul edilmektedir. Geçmişteki hassas kod tasarımı ile kıyaslandığında, günümüz yazılım geliştirme süreçleri daha fazla genelleme yeteneğine sahip büyük model çerçevelerinin yazılımlara entegre edilmesine odaklanmıştır, böylece yazılımlar daha güçlü bir ifade gücü ve daha geniş bir girdi/çıktı kapasitesine sahip olmaktadır. Derin öğrenme teknolojisi gerçekten de AI endüstrisine yeni bir refah dalgası getirmiştir ve bu dalga giderek kripto para endüstrisine de yayılmaktadır.
Bu rapor, AI endüstrisinin gelişim sürecini, teknoloji sınıflandırmalarını ve derin öğrenme teknolojisinin icadının sektöre olan etkisini ayrıntılı olarak inceleyecektir. Daha sonra, derin öğrenmedeki GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağı akışındaki gelişim durumu ve trendlerini derinlemesine analiz edecektir. Ardından, Crypto ile AI endüstrisi arasındaki ilişkiyi esasen tartışacak ve Crypto ile ilgili AI endüstrisi zincirinin düzenini gözden geçirecektir.
AI sektörünün gelişim süreci
AI sektörü 20. yüzyılın 50'li yıllarından itibaren başlamış, yapay zekanın vizyonunu gerçekleştirmek için akademi ve sanayi, farklı dönemlerde farklı disiplin arka planlarında yapay zekayı gerçekleştirmek için çeşitli akımlar geliştirmiştir.
Modern yapay zeka teknolojisi esasen "makine öğrenimi" terimini kullanmaktadır, bu terimin temel prensibi makinelerin verilerden yararlanarak görevlerde sürekli olarak yineleme yaparak sistem performansını iyileştirmesidir. Temel adımlar, verilerin algoritmaya girilmesi, bu verilerle modelin eğitilmesi, modelin test edilip dağıtılması ve modelin otomatik tahmin görevlerini gerçekleştirmek için kullanılmasıdır.
Şu anda makine öğreniminde üç ana akım bulunmaktadır: bağlantıcılık, sembolistlik ve davranışçılık; bunlar sırasıyla insan sinir sistemini, düşünceyi ve davranışı taklit etmektedir.
Ve şu anda sinir ağlarıyla temsil edilen bağlantıcılık, ( derin öğrenme olarak da adlandırılmaktadır, bunun başlıca nedeni bu mimarinin bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasıdır; katman sayısı ve nöron ) parametre ( sayısı yeterince fazla olduğunda, karmaşık genel görevleri uyarlama şansı yeterince artar. Veri girişi ile nöronun parametreleri sürekli olarak ayarlanabilir, nihayetinde birçok veriyle deneyimledikten sonra, bu nöron en iyi duruma ulaşır ) parametre (, bu da "derinlik" teriminin kökenidir - yeterince fazla katman ve nöron.
![Yeni Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Ve sinir ağına dayalı derin öğrenme teknolojisi, en erken sinir ağlarından, ileri beslemeli sinir ağları, RNN, CNN, GAN'dan modern büyük modellere, örneğin GPT gibi, Transformer teknolojisini kullanarak birçok teknik iterasyon ve evrim geçirmiştir. Transformer teknolojisi, sinir ağlarının bir evrim yönüdür, tüm modlar ) Transformer ( için bir dönüştürücü ekler; ses, video, resim gibi ) verileri ilgili sayısal değerlerle temsil etmek için kodlar. Daha sonra bu veriler sinir ağına girdi olarak verilir, böylece sinir ağı her türlü veriyi uyumlu hale getirebilir ve bu da çok modlu gerçekleştirilmesini sağlar.
Yapay zeka gelişimi üç teknik dalgadan geçti, birincisi 20. yüzyılın 60'lı yıllarıdır. Bu, yapay zeka teknolojisinin önerildiği on yıl sonra gerçekleşti ve bu dalga, sembolist teknolojinin gelişimiyle ortaya çıktı. Bu teknoloji, genel doğal dil işleme ve insan-bilgisayar diyalogları sorunlarını çözdü. Aynı dönemde, uzman sistemler doğdu; bu, Stanford Üniversitesi tarafından tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü kimya bilgisine sahiptir ve sorunlar aracılığıyla çıkarım yaparak bir kimya uzmanı gibi cevaplar üretir. Bu kimya uzman sistemi, kimya bilgi tabanı ile çıkarım sisteminin birleşimi olarak görülebilir.
İkinci AI teknolojisi dalgası 1997 yılında meydana geldi, IBM'in Deep Blue'su 3.5:2.5 ile satranç şampiyonu Kasparov'u yendi, bu zafer yapay zekanın bir dönüm noktası olarak kabul edildi.
Üçüncü AI teknolojisi dalgası 2006 yılında meydana geldi. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, veri temsil öğrenimi için bir algoritma olan yapay sinir ağlarını temel alan derin öğrenme kavramını ortaya koydular. Sonrasında derin öğrenme algoritmaları, RNN, GAN'dan Transformer ve Stable Diffusion'a kadar evrim geçirdi, bu algoritmalar üçüncü teknoloji dalgasını şekillendirdi ve bu aynı zamanda bağlantıcılığın zirve dönemidir.
Derin Öğrenme Endüstri Zinciri
Mevcut büyük model dilleri, sinir ağına dayalı derin öğrenme yöntemlerini kullanmaktadır. GPT'nin öncülüğündeki büyük modeller, yapay zeka alanında bir dalga yarattı ve birçok oyuncu bu alana akın etti. Pazarın veri ve hesaplama gücüne olan talebinin hızla arttığını gözlemledik. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının sanayi zincirini keşfetmeye odaklanıyoruz. Derin öğrenme algoritmalarının hakim olduğu yapay zeka sektöründe, tedarik zincirinin nasıl oluştuğunu, tedarik ve talep ilişkisini, mevcut durumu ve gelecekteki gelişmeleri ele alıyoruz.
Öncelikle netleştirmemiz gereken, Transformer teknolojisine dayalı GPT'nin liderliğindeki LLM'lerin ( büyük modeli ) eğitimi sırasında toplamda üç aşamaya ayrıldığıdır.
Eğitimden önce, Transformer tabanlı olduğu için, dönüştürücünün metin girişini sayılara dönüştürmesi gerekir, bu süreç "Tokenizasyon" olarak adlandırılır, ardından bu sayılar Token olarak adlandırılır. Genel bir deneysel kurala göre, bir İngilizce kelime veya karakter kaba bir şekilde bir Token olarak kabul edilebilirken, her bir Çince karakter kaba bir şekilde iki Token olarak düşünülebilir. Bu da GPT'nin fiyatlandırmada kullandığı temel birimdir.
Birinci adım, ön eğitim. Giriş katmanına yeterince veri çifti vererek model altındaki her bir nöronun en iyi parametrelerini bulmak, bu aşamada büyük miktarda veriye ihtiyaç vardır ve bu süreç en fazla hesap gücü tüketen süreçtir çünkü nöronların çeşitli parametreleri denemesi için tekrar tekrar iterasyon yapılması gereklidir.
İkinci adım, ince ayar. İnce ayar, daha az ama çok kaliteli bir veri kümesi ile eğitmek demektir; bu tür bir değişiklik, modelin çıktısının daha yüksek kalitede olmasını sağlar çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hatalı veya düşük kaliteli olabilir.
Üçüncü adım, pekiştirmeli öğrenme. Öncelikle tamamen yeni bir model oluşturulacak, buna "ödül modeli" diyoruz, bu modelin amacı oldukça basit, çıktının sonuçlarını sıralamaktır. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kaliteli olup olmadığını belirlemek için kullanacağız, böylece bir ödül modeli ile büyük modelin parametrelerini otomatik olarak yineleyebiliriz.
Kısacası, büyük modellerin eğitim sürecinde, ön eğitim verinin miktarı için çok yüksek taleplerde bulunur, gereken GPU hesaplama gücü de en fazladır. İnce ayar ise parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar. Pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için parametreleri tekrar tekrar yinelemek için bir ödül modeli aracılığıyla gerçekleştirilebilir.
Eğitim sürecinde, parametre sayısı arttıkça genel performansın üst sınırı da yükselir. Bu nedenle, büyük modellerin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, işlem gücü. Bu üçü, büyük modelin sonuç kalitesini ve genel performansını ortaklaşa etkiler.
Crypto ve AI'nin ilişkisi
Blok Zinciri, ZK teknolojisinin gelişiminden faydalanarak merkeziyetsiz + güvensizleşme düşüncesine dönüştü. Blok Zinciri'nin yaratılışının başına dönecek olursak, bu Bitcoin Zinciri'dir. Nakamoto'nun makalesinde, bunu öncelikle güvensiz bir değer transfer sistemi olarak adlandırmıştır. Ardından Vitalik ve diğerleri, merkeziyetsiz, güvensiz ve değer değişimi sağlayan akıllı sözleşme platformunu tanıtan bir makale yayınladılar.
Özüne dönmek gerekirse, bütün Blok Zinciri ağının bir değer ağı olduğunu düşünüyoruz, her işlem temel token üzerine kurulu bir değer dönüşümüdür. Buradaki değer, Token biçiminde kendini gösterir ve Tokenomics, belirli bir Token'ın değerini yansıtan kurallardır.
Tokenler ve blok zinciri teknolojisi, değerlerin yeniden tanımlanması ve keşfi açısından her sektör için hayati öneme sahip olup, AI sektörünü de kapsamaktadır. AI sektöründe token çıkarımı, AI endüstri zincirinin farklı yönlerinde değer yeniden şekillendirilmesini sağlayarak, daha fazla insanı AI sektöründeki farklı alanlara derinleşmeye teşvik edecektir. Bunun sonucunda sağlanan kazançlar daha belirgin hale gelecektir; bu sadece nakit akışına bağlı olmayacak, ayrıca tokenların sinerjisi, altyapının değerini artıracak ve bu doğal olarak şişkin protokol ve ince uygulama paradigmasının oluşumuna yol açacaktır.
İkincisi, AI endüstri zincirindeki tüm projeler sermaye değer artışı kazancı elde edecek ve bu token, ekosisteme geri dönüş sağlamanın yanı sıra belirli bir felsefi düşüncenin doğuşunu da teşvik edecektir.
Token ekonomisinin sektöre etkisi açıkça olumlu bir yön taşımaktadır, blok zinciri teknolojisinin değiştirilemez ve güvene ihtiyaç duymayan doğası da AI sektöründe pratik bir anlam taşımaktadır. Bu, bazı güven gerektiren uygulamaların gerçekleştirilmesini sağlayabilir, örneğin kullanıcı verilerimizin belirli bir model üzerinde kullanılmasına izin vermesi, ancak modelin belirli verileri bilmemesini, modelin verileri sızdırmamasını ve modelin çıkarımının gerçek verilerini döndürmesini sağlamaktadır. GPU yetersiz olduğunda, blok zinciri ağı üzerinden dağıtım yapılabilmekte, GPU iterasyonları sırasında, kullanılmayan GPU'lar ağa hesaplama gücü katkısında bulunabilmekte ve kalan değeri yeniden keşfetmektedir. Bu, küresel bir değer ağı sadece böyle bir şeyi başarabilir.
Sonuç olarak, token ekonomisi değerin yeniden şekillendirilmesini ve keşfini teşvik edebilir, merkeziyetsiz defter güven sorunlarını çözebilir ve değerin küresel ölçekte yeniden akışını sağlayabilir.
Kripto sektörü AI ile ilgili proje genel görünümü
( GPU arz tarafı
Şu anda en çok kullanılan Render projesi, 2020 yılında piyasaya sürüldü ve esasen büyük model dışındaki video renderleme görevleri için tasarlandı. Render, AI ile benzer senaryolara hitap etmediği için sıkı anlamda AI alanına girmemektedir. Ayrıca, video renderleme hizmetinin gerçekten belirli bir talebi vardır, bu nedenle GPU bulut hesaplama pazarı yalnızca AI modellerinin eğitimi ve çıkarımı için değil, aynı zamanda geleneksel renderleme görevlerine de uygulanabilir; bu da GPU bulut pazarının tek bir pazar riskine bağımlılığını azaltmaktadır.
Crypto'da AI ile ilgili sanayi zincirinde, hesaplama gücü tedariki kuşkusuz en önemli noktadır. Sektör tahminlerine göre, 2024 yılında GPU'nun hesaplama gücü talebinin yaklaşık 75 milyar dolar, 2032 yılında ise yaklaşık 773 milyar dolarlık bir pazar talebi olacağı, yıllık bileşik büyüme oranı )CAGR### yaklaşık %33,86 olacaktır.
GPU'nun iterasyon oranı Moore Yasası'na uymaktadır. ( 18-24 ayda performans iki katına çıkarken, fiyat yarı yarıya düşecektir. ) Bu durumda, paylaşılan GPU hesaplama gücüne olan talep oldukça artacaktır. Çünkü GPU pazarındaki patlama, gelecekte Moore Yasası'nın etkisi altında çok sayıda eski nesil GPU'nun ortaya çıkmasına yol açacaktır. Bu aşamada, bu kullanılmayan GPU'lar, paylaşılan ağda uzun kuyruk hesaplama gücü olarak değerini sürdürmeye devam edecektir. Bu nedenle, bu alanın uzun vadeli potansiyeline ve gerçek faydasına gerçekten güveniyoruz; sadece küçük ve orta ölçekli modellerin işlerinde değil, aynı zamanda geleneksel render işlerinde de oldukça güçlü bir talep oluşacaktır.
( verisi
Şu anda aktif olan projeler arasında EpiK Protocol, Synesis One, Masa gibi projeler bulunmaktadır. Farkları, EpiK Protocol ve Synesis One'ın açık veri kaynaklarını toplaması iken, Masa'nın ZK teknolojisine dayalı olarak gizli verilerin toplanmasını sağlamasıdır, bu da kullanıcılar için daha dostça bir yaklaşım sunmaktadır.
Diğer Web2 geleneksel veri işletmeleriyle karşılaştırıldığında, Web3 veri sağlayıcılarının veri toplama tarafında sahip olduğu avantaj, bireylerin gizlilik içermeyen verilerini katkıda bulunabilmeleridir. Bu sayede projelerin erişim alanı oldukça genişleyecek, yalnızca B2B değil, aynı zamanda her kullanıcının verisi için fiyatlandırma yapılabilecektir. Geçmişteki her veri artık bir değere sahip olacak ve token ekonomisinin varlığı sayesinde, ağın değeri ve fiyatı birbirine bağımlıdır. 0 maliyetli tokenlar, ağın değeri arttıkça yükselebilecek ve bu tokenlar geliştiricilerin maliyetlerini düşürecek, kullanıcıları ödüllendirmek için kullanılacaktır. Kullanıcıların veri katkısında bulunma motivasyonu daha da artacaktır.
![Yeni başlayanlar için bilgi丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp###
( ZKML
Eğer verilerin gizlilik hesaplaması ve eğitimi gerçekleştirilmek isteniyorsa, şu anda sektörde yaygın olarak kullanılan ZK çözümü, homomorfik şifreleme teknolojisini kullanarak verileri zincir dışı çıkarım yapar ve ardından sonuçları ve ZK kanıtını yükler, böylece verilerin gizliliği ve çıkarımı garanti altına alınabilir.