Geçtiğimiz hafta Microsoft araştırmacıları güçlü bir açık kaynak dil modeli olan ‘WizardLM 2’yi tanıttı. Ancak, zorunlu “toksisite testi” sürecindeki bir dikkatsizlik nedeniyle model hızla internetten çekildi. Kısa süreliğine erişilebilir olmasına rağmen, birkaç kişi modeli Github ve Hugging Face platformlarında elde etmeyi ve yeniden dağıtmayı başardı. WizardLM 2’nin geliştiricileri, daha önce bu modeli Microsoft’un “yeni nesil son teknoloji ürünü büyük dil modeli” olarak lanse etmişti. WizardLM 2’nin benzersiz yönü ise eğitim yöntemidir. Model, insan tarafından üretilen verileri kullanmak yerine, diğer yapay zeka sistemleri tarafından üretilen “sentetik” verilerle eğitilmiştir. Projenin arkasındaki araştırmacılar, insan tarafından üretilen veriler, büyük dil modeli (LLM) eğitimi için daha az uygulanabilir hale geldikçe, bu yaklaşımın daha sağlam yapay zeka modellerine yol açacağından eminler.
Bu yenilikçi teknik, gelecekteki yapay zeka modellerinin geliştirilmesinde önemli bir değişime işaret ediyor. WizardLM 2’nin performansı, büyük dil modelleri için otomatik bir değerlendirme yöntemi olan ‘MT-Bench’ kullanılarak değerlendirilmiş ve sonuçlar GPT-4-Turbo ve Claude-3 gibi gelişmiş modellerle karşılaştırıldığında son derece iyi performans gösterdiğini ortaya koymuştur. LLM’leri değerlendirmek yapay zeka alanında kesin bir bilim olmasa da, bu bulgular zorlu bir model geliştirildiğini göstermektedir. WizardLM 2 modelinin piyasaya sürülmesi ve ardından geri çağrılması @WizardLMAI X hesabı üzerinden duyuruldu. @WizardLMAI 16 Nisan’da, “Modelin piyasaya çıkarılma sürecinde gerekli olan bir öğeyi (toksisite testini) yanlışlıkla atladık” şeklinde bir özür tweet’i attı. Takipçilerine bu testi hızla gerçekleştirdiklerini ve ilk fırsatta modeli yeniden piyasaya süreceklerini belirttiler. Bu olay, Microsoft’un yapay zeka modellerinin gerekli tüm güvenlik standartlarını karşılamasını sağlama konusundaki kararlılığını vurgulamaktadır.
