İngilizce Mesajlama

 Olasılığa Dayalı Öğrenme


Ödev Nasıl Yapılır? – Ödev Yaptırma – Ödev Yaptırma Ücretleri – Tez Yaptırma – Ödev Yaptırma Fiyatları – Ücretli Ödev Yaptırma – Tez Yaptırma Ücretleri – Sunum Hazırlığı Yaptırma – Dergi Makalesi Yaptırma – Dergi Makalesi Yazdırma


 Olasılığa Dayalı Öğrenme

Yorumlardan öğrenme ortamına olasılıkları entegre etmek için, açıklamalı bir mantık programı tarafından kapsanan yorumlara olasılıklar atamanın bir yolunu bulmalıyız. Son birkaç yılda, bu konu çok fazla ilgi gördü ve olasılıksal-mantık programları, olasılıksal ilişkisel modeller, ilişkisel ve mantık programları gibi çeşitli farklı yaklaşımlar geliştirildi.

Burada, olasılıksal ILP sistemi olarak mantık ağlarına (MLN’ler) odaklanıyoruz. Bayes mantığı programları, Bölüm I’de ayrıntılı olarak tartışılacaktır.

Markov mantık ağları, önermesel yorumlar üzerinden olasılık dağılımlarını temsil eden Markov ağlarını birinci dereceden mantıkla birleştirir. Markov mantık ağlarının altında yatan fikir, mantıksal formülleri olası dünyalar kümesi üzerindeki yumuşak kısıtlamalar, yani yorumlar olarak görmektir: eğer bir dünya bir formülü ihlal ederse, bu klasik mantıkta olduğu gibi daha az olasıdır ancak mutlaka imkansız değildir.

Bir dünya ne kadar az formül ihlal ederse, o kadar olasıdır. Bir Markov mantık ağında bu, kısıtlamanın ne kadar güçlü olduğunu yansıtan her bir formülle bir ağırlık ilişkilendirilerek gerçekleştirilir. Daha kesin olarak, bir Markov mantık ağı ağırlıklı birinci dereceden yüklem mantık formüllerinden oluşur H = {C1, C2, . . . , Santimetre}. Bir formül C’nin wC ağırlıkları, mantıksal bir modelde temel örneklerin doğru olması için bir eğilim belirtir. Aşağıdaki örneği ele alalım.

Bir kişinin veya arkadaşlarının fr(P,P ) sırasıyla sm(P) sigara içip içmemesine bağlı olarak bir P kişisinin akciğer kanserine ca(P) sahip olma olasılığını hesaplayan küçük bir Markov mantık ağı. Bu, aşağıdaki Markov mantık formülleri kullanılarak kodlanabilir.

Markov mantık ağları, Markov ağlarını oluşturmak için kanıtlayıcı şablonlar olarak görülebilir. Bir dizi D sabiti verildiğinde, düğümler, karşılık gelen C formülleri kümesinin Herbrand bazındaki temel atomlara karşılık gelir ve iki düğüm arasında bir kenar vardır, ancak ve ancak karşılık gelen temel atomlar bir formülün en az bir topraklamasında birlikte görünürler. .

Örnek: Sabit olduğunu varsayarsak, arkadaşlar-sigara içen Markov mantık ağı, Markov ağını indükler. Farklı sabit kümeleri verildiğinde, Markov mantık ağının farklı Markov ağları üreteceğini unutmayın. Denklemden, e örneğinin, açıklamalı mantık programının Herbrand yorumu olan mantıksal bir kısımdan ve mantıksal kısımda meydana gelen rasgele değişkenlerin kısmi durum ataması olan olasılıksal bir kısımdan oluştuğunu görebiliriz.


Olasılığa dayalı Örnekleme teknikleri
Olasılığa dayalı olmayan Örnekleme
Olasılığa dayalı olmayan örnekleme Yöntemleri
Örnekleme Yöntemleri nelerdir
Nicel örnekleme yöntemleri
Olasılıklı ve Olasılıksız Örnekleme yöntemleri
Örnekleme Yöntemleri istatistik
Olasılıklı Örnekleme yöntemleri örnekleri


Olasılık Kanıtları

Kanıtlar üzerindeki olasılıkları tanımlamak için, ICL, PRISM’ler ve stokastik mantık programları gerçeklere (sırasıyla yan tümcelere) olasılıklar ekler ve bunları çözüm içinde stokastik seçimler olarak ele alır. Bölüm II’de tanıtacağımız ilişkisel Markov modelleri ve mantıksal gizli Markov modelleri, bunların basit bir parçası olarak görülebilir; burada tümcelerin başları ve gövdeleri yalnızca tekildir, sözde yinelemeli tümcelerdir.

Stokastik mantık programlarını kullanarak kanıtlardan olasılıksal öğrenmeyi göstereceğiz. Stokastik mantık programları arasındaki yakın ilişkinin tartışılması gerekir. Stokastik mantık programları, stokastik bağlamdan bağımsız gramerlerden esinlenmiştir.

Bağlamdan bağımsız gramerler ve mantık programları arasındaki analoji şudur:

• gramer kuralları belirli tümcelere karşılık gelir,
• cümleler veya diziler ve
• üretimlerden türetmelere.

Ayrıca, stokastik bağlamdan bağımsız gramerlerde, kurallar olasılık etiketleriyle açıklanır, öyle ki terminal olmayanı tanımlayan kurallarla ilişkili olasılıkların toplamı 1.0 olur.

Eisele ve Muggleton, stokastik mantık programlarını tanımlamak için bu benzetmeyi kullandılar. Bunlar, esas olarak, her c maddesinin ilişkili bir olasılık etiketi pc’ye sahip olduğu, herhangi bir yüklemi tanımlayan kurallarla ilişkili olasılıkların toplamının 1.0 olduğu (yine de daha az kısıtlı sürümler olarak kabul edilir) kesin tümce programlarıdır.

Bu çerçeve, aşağıdaki şekilde stokastik bir mantık programı H ∪ B verildiğinde belirli bir q yüklemi için kanıtlara olasılıklar atamaya izin verir. Dq, q yüklemi üzerinden atomlar için olası tüm temel kanıtların kümesini göstersin.

Basitlik nedeniyle, bu tür ispatların sınırlı sayıda olduğu ve tüm ispatların sonlu olduğu varsayılacaktır. Şimdi her kanıtla tq ∈ Dq olasılığını ilişkilendirin.

Çarpım tüm c cümlelerini kapsıyorsa ve nc,t, c cümlesinin tq ispatında kaç kez kullanıldığını gösterir. Stokastik bağlamdan bağımsız gramerler için, vt değerleri üretim olasılıklarına karşılık gelir.

Bununla birlikte, bağlamdan bağımsız gramerler ile mantık programları arasındaki fark, gramerlerde n → q,n1,…,nm ve q → q1,…,qk biçimindeki iki kuralın her zaman n → q1 verecek şekilde “çözmesi”dir. ,…,qk,n1,…,nm ise çözünürlük birleştirme nedeniyle başarısız olabilir. Bu nedenle, Dq’de bir ispat ağacı t, yani başarılı bir türetme olasılığı vardır.

Stokastik mantık programları için en az iki doğal öğrenme ortamı vardır. Denklemden motive olarak, bunları kanıtlardan öğrenebiliriz. Bu, stokastik mantık programları için yapı öğrenmeyi nispeten kolaylaştırır çünkü ispatlar, temeldeki stokastik mantık programının yapısı hakkında çok fazla bilgi taşır.

Ayrıca, öğrenme ortamı, kanıt bankalarından stokastik gramerlerin öğrenilmesiyle ilgili çalışmanın bir uzantısı olarak düşünülebilir. Bu nedenle, birleştirme temelli gramerlerin öğrenilmesi için de uygulanabilir olmalıdır. Kanıtlardan öğrenme ortamında olasılıksal bir ILP yaklaşımı sunacağız.

Öte yandan, Denklemi kapak ilişkisi olarak kullanabiliriz ve bu nedenle gereklilik ayarından öğrenmeyi kullanabiliriz. Buradaki örnekler, hedef stokastik mantık programının gerektirdiği toprak atomlarıdır. Stokastik mantık programlarını yalnızca atomlardan öğrenmek, bunları kanıtlardan öğrenmekten çok daha zordur çünkü atomlar kanıtlardan çok daha az bilgi taşır.

Bununla birlikte, stokastik mantık programları sırasıyla PRISM programları için parametre kestirim problemini çözen ve stokastik mantık programlarının yapı öğrenimine bir yaklaşım sunan bu ortam incelenmiştir: mevcut bir stokastik mantık programına her seferinde bir tümce ekleyerek yapılır.

Sonraki yazılarımızda, gereklilikten olasılıksal öğrenmeyi tanıtacağız. Bununla birlikte, stokastik mantık programlarını dikkate almak yerine, çok daha düşük bir hesaplama karmaşıklığına sahip olan Na ̈ıve Bayes çerçevesini inceleyeceğiz.


odev.yaptırma.com.tr ailesi olarak size her konuda destek sunabiliriz. Tek yapmanız gereken iletişim adreslerimizden bizlere ulaşmak!



Tüm alanlara özgü, literatür taraması yaptırma, simülasyon yaptırma, analiz yaptırma, çeviri yaptırma, makale ödevi yaptırma, dergi makalesi yaptırma, sunum ödevi yaptırma ve model oluşturma çalışmaları yapmaktayız.


yazar avatarı
odev yaptirmasitesi

Bir yanıt yazın