Cuma, Eylül 17, 2021

Derin Öğrenme Backpropagation

Derin Öğrenme Backpropagation, Çok Katmanlı Yapay Sinir Ağları eğitimi için denetimli bir öğrenme algoritmasıdır. Ancak, bazılarınız neden bir sinir ağını eğitmemiz gerektiğini veya eğitimin tam olarak ne anlama geldiğini merak ediyor olabilirsiniz. Bu konuya başlıklar halinde size açıklık getirelim. Neden Backpropagation Algoritması, Backpropagation ne olduğunu inceleyeceğiz.

Neden Backpropagation Algoritması ?

Sinir ağı tasarlarken, başlangıçta, ağırlıkları bazı rastgele değerler veya bu gerçek için herhangi bir değişken ile başlatırız. Seçmiş olduğumuz ağırlık değerleri doğru olmalı ya da modelimize en uygunu olmalıdır.

Temel olarak, yapmamız gereken şey, bir şekilde parametrelerin değiştirilmesinin modelini açıklamak zorundayız. modelimizi eğitmemiz gerekiyor. Modelimizi eğitmenin bir yolu Backpropagation(Geri Yayılım) olarak adlandırılır. 

Algoritma Adımları;

  • Minimum Hata 
  • Parametreleri Güncelle
  • Hata Minimuma Ulaşıncaya Kadar İşlemi Tekrarlayın
  • Model Bir Tahminde Bulunmaya Hazır 

Backpropagation Nedir?

Derin Öğrenme Backpropagation algoritması, delta kuralı veya gradyan iniş olarak adlandırılan bir teknik kullanarak ağırlık alanındaki hata fonksiyonunun minimum değerini aramaktadır. Hata fonksiyonunu en aza indiren ağırlıkların öğrenme problemine bir çözüm olduğu düşünülmektedir.

Mutli-Layer Perceptron - Back Propagation

Backpropagation Kullanılan Terimler

x : girdi (özelliklerin vektörü)
y : hedef çıktı
Sınıflandırma için çıktı, sınıf olasılıklarının bir vektörü olacaktır ve hedef çıktı, one-hot / dummy değişkeni tarafından kodlanan belirli bir sınıftır.
C : kayıp işlevi veya “maliyet işlevi”
Sınıflandırma için bu genellikle çapraz entropidir (XC, log kaybı ), gerileme için ise genellikle hata kaybının karesidir (SEL)
L : katman sayısı
{\ displaystyle W ^ {l} = (w_ {jk} ^ {l})}: katman arasındaki ağırlıklar  l-1}{\ displaystyle l-1} ve l, nerede {\ displaystyle w_ {jk} ^ {l}} arasındaki ağırlık kkatmandaki -th düğüm {\ displaystyle l-1} ve jkatmandaki -th düğüm l
{\ displaystyle f ^ {l}}: katmandaki etkinleştirme işlevleri l

Geri yayılım, basit ileri beslemeli ağlar için matris çarpımı açısından veya daha genel olarak ek grafik cinsinden ifade edilebilir .

Backpropagation Sınırlamaları

  • Geri yayılımlı gradyan inişinin hata fonksiyonunun global minimumunu bulacağı garanti edilmez , ancak yalnızca yerel minimumdur; ayrıca, hata fonksiyonu manzarasında platoları geçmekte sorun yaşar . Sinir ağlarında hata fonksiyonlarının dışbükey olmamasından kaynaklanan bu sorunun uzun süredir büyük bir dezavantaj olduğu düşünülüyordu, ancak birçok pratik problemde bunun olmadığını iddia edin.
  • Geri yayılım öğrenimi, girdi vektörlerinin normalleştirilmesini gerektirmez; ancak normalleştirme performansı artırabilir.
  • Geri yayılım, aktivasyon fonksiyonlarının türevlerinin ağ tasarım zamanında bilinmesini gerektirir.

Geri yayılım terimi, degradenin nasıl kullanıldığını değil, kesinlikle yalnızca gradyanı hesaplamak için kullanılan algoritmayı ifade eder; ancak terim, stokastik gradyan inişi gibi gradyanın nasıl kullanıldığı da dahil olmak üzere genellikle tüm öğrenme algoritmasına atıfta bulunmak için gevşek bir şekilde kullanılır.

Related Articles

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Stay Connected

22,037BeğenenlerBeğen
0TakipçilerTakip Et
0AbonelerAbone
- Advertisement -

Latest Articles

%d blogcu bunu beğendi: