Mistral, eski Meta ve DeepMind araştırmacıları tarafından oluşturulan bir Fransız girişimidir. Apache 2.0 lisansı kapsamında bu model, LLaMA 2 ve ChatGPT 3.5'ten daha güçlü olduğunu iddia ediyor ve tüm bunlar tamamen açık kaynaklı. Onu sansürsüz olarak nasıl kullanacağımızı öğreneceğiz ve verilerimizle nasıl eğiteceğimizi keşfedeceğiz.
ChatGPT'nin yapay zeka endüstrisinde tek çözüm olduğu günler çoktan geride kaldı. Sırasıyla Meta ve Google tarafından geliştirilen LLaMA ve Gemini gibi yeni oyuncular sahaya girdi. Farklı araçlara ve uygulamalara rağmen ortak bir noktaları paylaşıyorlar: Kapalı kaynaklılar (LLaMA için bazı istisnalar dışında) ve büyük teknoloji şirketlerinin kontrolü altındalar.
Bu makale yapay zeka sektöründe ChatGPT 3.5'ten daha iyi performans gösteren ve yerel olarak çalıştırılabilen açık kaynaklı bir araca sahip yeni bir rakibi araştırıyor. Ayrıca onu sansürsüz olarak nasıl kullanacağımızı ve kendi verilerimizle nasıl eğiteceğimizi de öğreneceğiz.
Mistral 8x7B ile tanışın
Mistral, eski Meta ve DeepMind araştırmacıları tarafından kurulmuş bir Fransız girişimidir. Engin bilgi ve deneyimlerinden yararlanarak 415 milyon ABD doları tutarında yatırımı başarıyla gerçekleştirerek Mistral'in değerlemesini 2 milyar ABD dolarına çıkardılar.
Mistral'deki ekip, yeni modelleri Mistral 8x7B'ye X üzerinden bir torrent bağlantısı bıraktıklarında ilgi kazanmaya başladı. Apache 2.0 lisansına göre bu model, LLaMA 2 ve ChatGPT 3.5'ten daha güçlü olmasının yanı sıra tamamen açık kaynaklıdır.
Mistral Güç ve Yetenekler
32k jetonluk bir bağlamı yönetir.
İngilizce, Almanca, İspanyolca, İtalyanca ve Fransızca dillerinde işlevler.
Kod oluştururken mükemmel performans sergiler.
Talimatları takip eden bir modele dönüştürülebilir.
Testlerde Mistral, kıyaslamaların çoğunda LLaMA 2 70B'yi aşarak ve ayrıca diğer kıyaslamalarda ChatGPT 3.5 ile eşleşerek veya ondan daha iyi performans göstererek olağanüstü bir güç sergiledi.
Mistral'ı Yerel Olarak Çalıştırmak
Şekil ve tabloların ötesine geçerek pratik yapmaya başlayalım. Öncelikle yerel olarak çalıştırmamıza yardımcı olacak bir araca ihtiyacımız olacak: . MacOS kullanıcıları dosyayı indirebilir. Linux veya WSL kullanıcıları için aşağıdaki komutları terminalinize yapıştırın:
curl //ollama.ai/install.sh | sh
Daha sonra LLM'leri yerel olarak çalıştırabiliriz, ancak yalnızca bir yapay zekanın rastgele soruları yanıtlamasını hedeflemiyoruz - ChatGPT bunun için var. Tercihlerimize göre ince ayar yapabileceğimiz ve ince ayar yapabileceğimiz sansürsüz bir yapay zeka hedefliyoruz.
Bunu göz önünde bulundurarak Mistral'in tüm kısıtlamaları kaldıran özel bir versiyonu olan dolphin-mistral'ı kullanacağız. Dolphin-mistral'ın bu kısıtlamaları nasıl ortadan kaldırdığı hakkında daha fazla bilgi edinmek için yaratıcısının bu göz atın.
Ollama'yı bilgisayarınızda çalıştırmaya başlamak için terminalinizde aşağıdaki komutu çalıştırın:
ollama serve
Ardından başka bir terminalde şunu çalıştırın:
ollama run dolphin-mistral:latest
İlk indirme, 26GB'lık bir indirmeyi gerektirdiğinden zaman alıcı olabilir. İndirme işlemi tamamlandığında mistral girişinizi bekleyecektir.
Dolphin-mistral'ı çalıştırmanın önemli miktarda sistem kaynağı, özellikle de RAM gerektirdiğini unutmayın.
Kendi Modelinizi Eğitmek
Şimdi, mistral'ı verilerinizle eğitme olanaklarını merak ediyor olabilirsiniz. Cevap kocaman bir evet.
Hugging Face'te bir hesap oluşturarak başlayın (henüz yapmadıysanız) ve ardından yeni bir alan oluşturun.
Autotrain için Docker'ı seçin
Buradan modelinizi seçebilir, verilerinizi yükleyebilir ve eğitime başlayabilirsiniz. Bir modeli ev bilgisayarında eğitmek, donanım talepleri nedeniyle zorlayıcı olabilir.
Hugging Face gibi hizmetler bilgi işlem gücü sunar (ücret karşılığında), ancak süreci hızlandırmak için Amazon Bedrock veya Google Vertex AI'yi de düşünebilirsiniz.