Bu kılavuz, LangChain'de bir konuşma belirteci arabelleği kullanma sürecini gösterecektir.
LangChain'de Konuşma Jetonu Tamponu Nasıl Kullanılır?
KonuşmaTokenBufferBellek Kütüphane, en son mesajları ara bellekte saklamak için LangChain çerçevesinden içe aktarılabilir. Belirteçler, arabellekte saklanan mesaj sayısını sınırlayacak şekilde yapılandırılabilir ve daha önceki mesajlar otomatik olarak temizlenir.
LangChain'de konuşma belirteci arabelleğini kullanma sürecini öğrenmek için aşağıdaki kılavuzu kullanın:
Adım 1: Modülleri Kurun
Öncelikle pip komutunu kullanarak gerekli tüm modülleri içeren LangChain çerçevesini kurun:
pip kurulumu langchain
Şimdi OpenAI() yöntemini kullanarak LLM'leri ve zincirleri oluşturmak için OpenAI modülünü yükleyin:
pip kurulumu openai
Modülleri yükledikten sonra OpenAI'nin API anahtarını kullanmanız yeterlidir. ortamı kurmak os ve getpass kütüphanelerini kullanarak:
içe aktarmak Seniçe aktarmak geçiş izni
Sen . yaklaşık olarak [ 'OPENAI_API_KEY' ] = geçiş izni . geçiş izni ( 'OpenAI API Anahtarı:' )
Adım 2: Konuşma Belirteci Ara Bellek Belleğini Kullanma
İçe aktardıktan sonra OpenAI() yöntemini kullanarak LLM'leri oluşturun. KonuşmaTokenBufferBellek LangChain çerçevesinden kütüphane:
itibaren Langchain. hafıza içe aktarmak KonuşmaTokenBufferBellekitibaren Langchain. lms içe aktarmak OpenAI
llm = OpenAI ( )
Belirteci ayarlamak için belleği yapılandırın, eski mesajları temizler ve bunları ara bellekte saklar. Bundan sonra, konuşmadaki mesajları saklayın ve bunları bağlam olarak kullanmak için en güncel olanları alın:
hafıza = KonuşmaTokenBufferBellek ( llm = llm , max_token_limit = 10 )hafıza. save_context ( { 'giriş' : 'Merhaba' } , { 'çıktı' : 'Nasılsın' } )
hafıza. save_context ( { 'giriş' : 'Ben iyiyim peki ya sen' } , { 'çıktı' : 'fazla değil' } )
Load_memory_variables() yöntemini kullanarak ara bellekte saklanan verileri almak için belleği çalıştırın:
hafıza. load_memory_variables ( { } )
Adım 3: Konuşma Jetonu Arabelleğini Zincirde Kullanma
yapılandırarak zincirleri oluşturun. Konuşma Zinciri() konuşma belirteci ara belleğini kullanmak için birden fazla argüman içeren yöntem:
itibaren Langchain. zincirler içe aktarmak Konuşma Zincirikonuşma_with_summary = Konuşma Zinciri (
llm = llm ,
hafıza = KonuşmaTokenBufferBellek ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
ayrıntılı = Doğru ,
)
konuşma_ile_özetle. tahmin etmek ( giriş = 'Merhaba, naber?' )
Şimdi doğal dilde yazılmış yönlendirmeleri kullanarak sorular sorarak sohbeti başlatın:
konuşma_ile_özetle. tahmin etmek ( giriş = 'Sadece NLP projesi üzerinde çalışıyorum' )
Belirteç sayısını kullanarak ara bellekte saklanan verilerden çıktı alın:
konuşma_ile_özetle. tahmin etmek ( giriş = 'LLM'leri tasarlamaya çalışıyorum' )
Önceki mesajlar düzenli olarak temizlendiğinden arabellek her yeni girişle güncellenmeye devam eder:
konuşma_ile_özetle. tahmin etmek (giriş = 'LangChain kullanarak Yüksek Lisans! Bunu duydunuz mu?'
)
Bu tamamen LangChain'deki konuşma belirteci arabelleğini kullanmakla ilgilidir.
Çözüm
LangChain'de konuşma belirteci arabelleğini kullanmak için, OpenAI hesabındaki API anahtarını kullanarak ortamı ayarlamak üzere modülleri kurmanız yeterlidir. Bundan sonra, konuşmayı arabellekte saklamak için LangChain modülünü kullanarak ConversationTokenBufferMemory kitaplığını içe aktarın. Tampon bellek, eski mesajları sohbetteki her yeni mesajla birlikte temizlemek için bir zincir halinde kullanılabilir. Bu gönderi, LangChain'de konuşma belirteci ara belleğinin kullanılması konusunu ayrıntılı olarak ele aldı.