Η Google επιτρέπει το long-context understanding σε όλα τα media

Μήνες αφότου η Google δημοσιοποίησε το μοντέλο Gemini AI, κυκλοφορεί μια νέα έκδοση που μπορεί να χειριστεί πολλαπλάσια ποσότητα audio, video και κειμένου σε σχέση με το GPT-4 του OpenAI, εκτελώντας «υψηλού επιπέδου εργασίες κατανόησης».

Συγκεκριμένα, το Gemini 1.5 επιδεικνύει βελτιώσεις, χρησιμοποιώντας λιγότερη υπολογιστική ισχύ. Ο Demis Hassabis, CEO της Google DeepMind, ανέπτυξε το νέο μοντέλο και το παρουσίασε μαζί με τον CEO της Alphabet, Sundar Pichai, σε blog post, εκ μέρους της ομάδας Gemini.

Ο Hassabis εξήγησε πώς η ομάδα εργάζεται για τη βελτιστοποίηση της τεχνολογίας, της καθυστέρησης και της εμπειρίας του χρήστη, συγκρίνοντάς το «με τη μνήμη ενός ανθρώπου». Η μνήμη αποτέλεσε θέμα συζήτησης, αφού το OpenAI αποκάλυψε ότι δοκιμάζει μια επιλογή που επιτρέπει στο ChatGPT να διατηρεί πληροφορίες από τη μια συνομιλία στην άλλη.

(Πηγή: MediaPost)

Keywords
Τυχαία Θέματα
Google,-context