Google AI hat damit begonnen, Entwicklern Zugriff auf erweiterte Kontextfenster und kostensparende Funktionen zu bieten, beginnend mit dem großen Sprachmodell Gemini 1.5 Pro (LLM). Bisher über eine Warteliste verfügbar, steht nun allen Entwicklern das vollständige 2-Millionen-Token-Kontextfenster offen. Google führt außerdem Kontext-Caching ein, um die Kosten für Aufgaben zu senken, bei denen ähnliche Informationen über mehrere Eingabeaufforderungen hinweg wiederverwendet werden.
Mit dem neuen Update können Gemini 1.5 Pro- und Flash-Modelle jetzt Python-Code dynamisch generieren und ausführen. Die Modelle können außerdem Datenanalyse und Mathematik nutzen, um Argumentationsprobleme effektiv zu lösen. Laut Google ist die Code-Ausführungsumgebung sicher und verfügt über keinen Internetzugang; Das Unternehmen gibt außerdem an, dass Entwicklern nur die vom Modell generierte Endausgabe in Rechnung gestellt wird. Das leichte Gemma 2-Modell ist jetzt auch für die Verwendung im Google AI Studio verfügbar. Interessierte können unter „Erweiterte Einstellungen“ im Google AI Studio darauf zugreifen.
Mehrere Unternehmen nutzen bereits Google Gemini 1.5 Flash. Zu den Apps, die diese Technologie nutzen, gehören Envision, das sehbehinderten Benutzern hilft, die Richtlinienanalyse von Plural, die Videoverarbeitung von Zapier und das personalisierte KI-Speichersystem von Dot. Die andere Sache, die derzeit für Entwickler eingeführt wird, ist das, was der Google-Beitrag „Text-Tuning“ nennt. Der vollständige Zugriff auf diese Funktion wird für Mitte Juli erwartet.
Arbeiten für NotebookcheckSind Sie ein Technikfreak, der schreiben kann? Dann kommen Sie in unser Team! Gesucht:- News WriterDetails hierDas obige ist der detaillierte Inhalt vonGoogle AI kündigt Gemini 1.5 Pro und Gemma 2 für Entwickler an. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!