⏳
DIN: AI Agent Blockchain
Turkiye
Turkiye
  • DIN PROJESİ HAKKINDA
    • ⏳Genel Bakış
    • 🛣️Yolculuğumuz
  • DIN NASIL ÇALIŞIR
    • 💡Piyasa ve Trend Analizi
      • Mevcut veri trendi ve piyasanın genel görünümü
      • Mevcut yapay zeka trendi ve pazarının genel görünümü
      • Pazardaki mevcut boşluklar ve fırsatlar
    • 🔢Veri Katmanı: Tüm Veri İçin
      • AI'nin Veri Akışı
      • Veri Toplama
      • Veri Doğrulama
      • Veri Vektörleştirme
      • Ödül Mekanizması
    • 🏠DIN Mimarisi
    • 💰Tokenomik ve Kullanım Alanları
      • $DIN Token Hakkında Detaylar
      • Ecosistem İçindeki Token için Kullanım Senaryoları
  • NASIL KATILABİLİRSİN
    • 🧲xData Açıklaması
    • ⚙️Chipper Node Açıklaması
      • Chipper Node Nedir
      • Chipper Node Nasıl Çalışır
      • Akıllı Contract Adresleri
  • YOL HARİTASI
    • 📢2025 İleriye Dönük
由 GitBook 提供支持
在本页
  • Veri katkısı için ödül
  • Veri doğrulama ve hesaplama için ödül

这有帮助吗?

  1. DIN NASIL ÇALIŞIR
  2. Veri Katmanı: Tüm Veri İçin

Ödül Mekanizması

上一页Veri Vektörleştirme下一页DIN Mimarisi

最后更新于6个月前

这有帮助吗?

DIN protokolündeki bir teşvik mekanizması, katkıda bulunanları modelin doğruluğunu artırmak için veri sunmaya, doğrulayıcıları verilerin doğruluğunu doğrulamaya ve hesaplama düğümlerini veri setlerini vektörlere dönüştürmeye teşvik eder.

Teşvik mekanizması, gamifikasyon puanlarını (sistemde "Wafer" adıyla anılır) ve tahmin pazarlarına dayanan bir metodolojiyi birleştirir.

Veri katkıcıları için, katılımcılar, test verileri ile ölçülen modelin performansını ne kadar iyi artırdıklarına göre ödüllendirilir.

Veri katkısı için ödül

Şekil 1'de gösterildiği gibi üç aşama bulunmaktadır.

Taahhüt aşamasında, sağlayıcı ödülü yatırır ve bir kayıp fonksiyonu L(h, D) tanımlar. Bu fonksiyon, modelin herhangi bir veri kümesi D üzerindeki kaybını ölçer (genellikle veri kümesindeki noktalar üzerindeki ortalama kayıp). Son olarak, sağlayıcı, başlangıçta küçük bir rastgele kısmı açıklanan bir test veri kümesine kriptografik olarak taahhütte bulunur.

Katılım aşamasında, insanlar veri ekler veya modeli günceller. Her katılımcı, güncellemeleriyle birlikte bazı ağ tokenleri yatırmak zorundadır. Bir bitiş koşulu karşılandığında (örneğin, maksimum süre sınırı veya veri miktarı), bu aşama sona erer. Yeni bir sağlayıcı yeni test verileri taahhüt ederse yeni bir döngü başlayabilir.

Ödül aşamasında, sağlayıcı test veri kümesini yükler ve akıllı sözleşme, bunun taahhütü karşıladığını kontrol eder. Ardından, akıllı sözleşme, tüm katılımcılar için ödülleri belirler, bu konuyu bir sonraki bölümde tartışacağız.

Ödül hesaplama

Öncelikle, ödül B = 1 olduğunu varsayalım, böylece her katılımcının ödülü, yatırımları artı aşağıdaki sayı olacaktır:

Bu ödül fonksiyonu, otomatik piyasa yapıcı veya puanlama kuralına dayalı tahmin piyasalarına dayanmaktadır. Şöyle tasavvur edilebilir: Akıllı sözleşme öncelikle L(h0, D) miktarını ilk katılımcıya öder. Bu katılımcının verileri modeli h1'e güncellediği için, ikinci katılımcıya L(h1, D) ödenir. Bu süreç, son katılımcı akıllı sözleşmeye L(ht, D) ödeyene kadar devam eder. ht'nin performansı ne kadar iyi olursa, katılımcı t'nin ödemesi gereken kişi sayısı o kadar az olur; bu nedenle, katılımcılar, (beklenen) test kümesine göre mümkün olduğunca yararlı veriler sağlamaya teşvik edilir. (Eğer ht, önceki modelden daha kötü performans gösterirse, t yatırımlarının bir kısmını veya tamamını kaybeder.) Toplamda, akıllı sözleşme L(h0, D)−L(ht , D) net miktarını öder; bu, tüm katkılardan elde edilen toplam iyileşmedir. Kayıp fonksiyonu üzerindeki varsayımlara göre bu, en fazla 1'dir.

Son olarak, bu mekanizmayı bir ödül B için ölçeklendirmemiz gerekiyor. J.D. Abernethy tarafından önerilen yaklaşım, tüm katılımcıların B miktarında stake yapmasını gerektireceğinden uygulanabilir değildir. Bu nedenle, mekanizmanın B kez yineleme yapılması yaklaşımı kullanılır. Her yinelemede, katılımcı bazı tokenler yatırır ve bir ödül alır. Katılımcı, kayıplar nedeniyle token yatırmaya devam edemezse, süreçten ayrılır. Bu biraz karmaşık olsa da, ht'nin performansı ne kadar iyi olursa, t'nin aldığı ödül de o kadar fazla olur; bu nedenle, katılım teşviklerinin güçlü bir şekilde uyumlu olduğuna inanıyoruz.

Veri doğrulama ve hesaplama için ödül

yakında...

🔢
Şekil 1. Ödül Tabanlı Teşvik Mekanizması. h, bir makine öğrenimi modelini; D ise bir veri kümesini belirtmek için kullanılır. Akıllı sözleşme, kayıp fonksiyonu L(h, D)'yi [0, 1] aralığına keser.