Başarılı ML dağıtımı için 3 basit strateji

Sadece birkaç yıl önce, AI/ML birkaç on yıl içinde dünyamızda devrim yaratma sözü verdi. Yine de, bu iddiaları yerine getirmede nasıl başarısız olduğuna dair gümbürtüler duyuyoruz. Yaygın şikayetler, “Makine öğrenimi modelim eğitimde çok başarılıydı, ancak üretime uygulandığında büyük bir hayal kırıklığı!” gibi geliyor.

Her şeyden önce, AI/ML’yi yazmak için çok erken. İkincisi, en büyük değerini elde etmek, mühendisler ve geliştiriciler olarak bizim açımızdan bir yaklaşım değişikliği gerektirir. Makine öğrenimi modelleriniz laboratuvarda iyi çalışıyor ancak üretim hattında çalışmıyorsa, Loonycorn’un kurucusu Janani Ravi’nin bu üç basit adımını deneyin.

1. Fazla takmaktan kaçının

Bu, uygulanması üç ipucunun en kolayıdır, çünkü fazla takılan modeller sorunu çok iyi araştırılmıştır ve birçok teknik mevcuttur. Kısacası: “Aşırı uyumlu bir model, eğitim aşamasında çok iyi sonuç veren, ancak dağıtıldığında gerçek verilerle yetersiz çalışan bir modeldir” diyor Janani. Nedenler farklıdır, ancak genellikle eğitim verileri, modelin genel kalıpları nasıl tanıyacağını öğrenmesi için çok seyrek veya basittir.

Geleneksel bir makine öğrenimi algoritmasıyla fazla uyum sağlamaktan kaçınmak için şu stratejilerden birini kullanabilirsiniz:

  • Düzenleme – karmaşık modelleri cezalandıran ve daha basit olanları teşvik eden
  • Çapraz doğrulama – modelin çıktısını daha iyi doğrulamak için eğitim verilerinin doğrulama verilerinden farklı olduğu yer
  • Bırakma (yalnızca sinir ağları kullanılıyorsa) – eğitim süreci sırasında belirli nöronların kasıtlı olarak kapatılması, diğer nöronları verilerden daha fazla öğrenmeye zorlar.
  • Topluluk öğrenimi – burada tahminler, tek bir makine öğrenimi modeline güvenmek yerine birden çok bireysel tahmin modelinin toplamıdır

2. Gerçek zamanlı verileri doğru şekilde kullanın

Eğitime hizmet eden çarpıklık, verilerin nasıl işlendiğiyle ilgilidir. Janani, “Modeliniz için kullandığınız eğitim verileri genellikle toplu işlem hatlarından elde edilir,” diye açıklıyor. “Veriler muhtemelen bir dosya sisteminde veya kuruluşunuzun herhangi bir yerindeki bir veritabanında yaşıyor. Temelde bu verileri iyi işliyor ve modeli eğitmek için kullanıyorsunuz.” Yine de tahmin verileri akış verileridir ve genellikle daha geçici bir şekilde işlenir.

Bu temel işleme farkı, gerçek dünya tahmin verileriyle çalışırken zayıf performans gösteren bir modelin nedeni olabilir.

Bu işleme farkını azaltmak için toplu iş ve akış verilerinin aynı yolu kullandığından emin olabilirsiniz. Aynı boru hattında aynı şekilde işlenir.

Mevcut birkaç mimari, toplu iş ve akış verilerinin işlenmesini entegre etmenize olanak tanır. Bunlara örnek olarak Lambda mimarisi ve Kappa mimarisi dahildir. Bu tür tasarım ilkelerini kullanarak makine öğrenimi ardışık düzenlerinizi oluşturmak, modelin gerçek zamanlı verileri doğru şekilde işlemeyi öğrenmesini sağlar.

3. Dağıtımdan sonra modelinize bakıcılık yapın

Bir makine öğrenimi modeli oluşturmak, çocuk sahibi olmaya çok benzer; dağıtımdan sonra da işin büyük bir kısmı gerekir. Modeller genellikle kavram kaymasına maruz kalır; herhangi bir ML modeli, gerçek dünyada var olan ilişkileri yakalamaya çalışır ve bu ilişkiler dinamiktir. Zamanla değişirler. Modeller sürekli izleme gerektirir ve güncellenmiş verilerle beslenmeleri gerekir, aksi takdirde zamanla bayatlar ve daha az kullanışlı hale gelirler.

Makine öğrenimi modelleri, öğrenmeye devam etmek ve alakalı kalmak için insan bakıcılarına ihtiyaç duyar. Bu insanlar, modeli sürekli olarak izler ve yeni örnekler üzerinde yeniden eğitir. Özünde, öğrenme, modelin tahmin etmeye çalıştığı gerçek dünya kadar dinamik kalmalıdır.

Bir model, sahtekarlık tespiti, sahte haber tespiti ve nicel ticaret gibi yaygın AI kullanım durumları gibi, düşmanları bir araya getirdiğinde, insan düşünenler daha da kritiktir. Bunlar genellikle modeli kandırmak veya aldatmak isteyen bilgisayar korsanlarına sahiptir. İnsan bakıcıları, hangi verilerin yanlış sınıflandırıldığını görmek için bu modellerin çıktılarını gözden geçirir ve ardından bu örneklerden gelen bilgileri, modeli devam eden alaka düzeyine yeniden eğitmek için kullanır.

Janani, “Makine öğrenimi modelinizi devreye almanın yalnızca ilk adım olduğunu unutmayın,” diye vurguluyor. “Daha yapılacak çok iş var. Hemen bir sonraki harika probleme geçmeyin.”

Bu isteğe bağlı web seminerinde Janani’nin yapay zeka tuzaklarından nasıl kaçınılacağı hakkında daha fazla bilgi edinin.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.