Opera, Kullanıcıların LLM’leri Yerel Olarak Çalıştırmasına İzin Verecek
Opera, kullanıcıların Büyük Dil Modellerini (LLM’ler) bilgisayarlarına yerel olarak indirip kullanmalarına olanak sağlayacak yeni bir özellik tanıttı. Özelliğin geliştirici akışı güncellemelerini alan Opera One kullanıcılarına açık olduğunu belirtelim. Bu sayede kullanıcılar, Meta’dan Llama, Google’dan Gemma, Vicuna, Mistral AI ve daha fazlası dahil olmak üzere 50’den fazla aileden 150’den fazla modele erişebilecek.
Opera, bu yeni özellikleri “Yapay Zeka Özellik Düşürme Programı”nın bir parçası olarak adlandırıyor ve kullanıcı verilerinin yerel olarak cihazlarında tutulacağına, böylece bir sunucuya bilgi göndermeye gerek kalmadan üretken yapay zekayı kullanmalarına olanak sağlanacağının altını çiziyor. Şirket, bu modelleri kullanıcıların bilgisayarlarında çalıştırmak için Ollama açık kaynak çerçevesini kullanıyor. Modellerin her çeşidinin yerel sistemde 2-10 GB arası alanı bulunuyor.
Geçen yıl Opera One‘ın piyasaya sürülmesiyle şirketin yapay zeka merkezli bir amiral gemisi tarayıcısı olmaya çalıştığını açıkça ortaya koyduğunu ve yapay zeka asistanı Aria‘yı sunduğunu hatırlatalım.
Opera’daki bu yeni özelliği denemek için Opera Developer’ın en yeni sürümüne yükseltebilir ve aşağıdaki adımları izleyerek yerel LLM’leri bilgisayarınızda etkinleştirebilirsiniz.