კატეგორიები

CardanoNFTავტოარქიტექტურაახალი ამბებიახალიამბებიბიზნესიგანათლებაგარემოგარემო და ბუნებაგარემოს დაცვაგართობაეკონომიკაეკონომიკა/ბიზნესიზოგადითავგადასავალითამაშებიიარაღიისტორიაკოსმოსიკრიმინალიკრიპტოკრიპტოვალუტაკრიპტოსამყაროკულინარიაკულინარია რეცეპტებიკულტურაკულტურა/მედიამედიამეცნიერებამოგზაურობამოდამომხმარებელიმსოფლიომსოფლიო ამბებიმსოფლიო პოლიტიკანადირობაპოლიტიკაპროდუქტის მიმოხილვარობოტექნიკასაბრძოლო მასალასაზოგადოებასამართალისამხედროსილამაზესპორტისტარტაპებისტილისხვადასხვატექნიკატექნოლოგიატექნოლოგიებიტექნოლოგიები/ონლაინ კომერციატრანსპორტიტურიზმიუსაფრთხოებაფინანსებიფიტნესიშოუბიზნესიცხოვრებაწიგნებიხელოვნებახელოვნური ინტელექტიჯანდაცვაჯანმრთელობა

Meta პასუხობს DeepSeek-ს: Llama 4 გრძელი კონტექსტის Scout და Maverick მოდელებით და 2T პარამეტრიანი Behemoth-ი გზაშია!

ტექნოლოგია ხელოვნურიინტელექტი
Meta პასუხობს DeepSeek-ს: Llama 4 გრძელი კონტექსტის Scout და Maverick მოდელებით და 2T პარამეტრიანი Behemoth-ი გზაშია!

მთლიანი ხელოვნური ინტელექტის ლანდშაფტი შეიცვალა 2025 წლის იანვარში, მას შემდეგ, რაც იმ დროისთვის ნაკლებად ცნობილმა ჩინურმა ხელოვნური ინტელექტის სტარტაპმა DeepSeek-მა (ჰონგ-კონგში დაფუძნებული რაოდენობრივი ანალიზის ფირმა High-Flyer Capital Management-ის შვილობილი კომპანია) გაუშვა თავისი მძლავრი ღია კოდის ენის მსჯელობის მოდელი DeepSeek R1 საჯაროდ მსოფლიოსთვის და აჯობა აშშ-ის ტექნოლოგიურ გიგანტებს, როგორიცაა Meta.

მას შემდეგ, რაც DeepSeek-ის გამოყენება სწრაფად გავრცელდა მკვლევრებსა და საწარმოებს შორის, Meta-ში პანიკა გავრცელდა მას შემდეგ, რაც შეიტყვეს, რომ ეს ახალი R1 მოდელი მომზადებული იყო სხვა წამყვანი მოდელების მომზადების ღირებულების მცირე ნაწილად, მხოლოდ რამდენიმე მილიონი დოლარი — რასაც ის უხდის საკუთარი ხელოვნური ინტელექტის გუნდის ზოგიერთ ლიდერს — მაგრამ მაინც მიაღწია უმაღლეს შესრულებას ღია კოდის კატეგორიაში.

Meta-ს მთელი გენერაციული ხელოვნური ინტელექტის სტრატეგია ამ დრომდე ემყარებოდა საუკეთესო კლასის ღია კოდის მოდელების გამოშვებას საკუთარი ბრენდის სახელით "Llama" მკვლევრებისა და კომპანიებისთვის, რათა თავისუფლად აეშენებინათ მათზე (ყოველ შემთხვევაში, თუ მათ ჰყავდათ 700 მილიონზე ნაკლები ყოველთვიური მომხმარებელი, რა დროსაც მათ უნდა დაეკავშირებინათ Meta სპეციალური ფასიანი ლიცენზირების პირობებისთვის).

თუმცა DeepSeek R1-ის გასაოცრად კარგი შესრულება გაცილებით მცირე ბიუჯეტზე, გავრცელებული ინფორმაციით, შეარყია კომპანიის ხელმძღვანელობა და აიძულა გარკვეული სახის ანგარიშსწორება, Llama-ს ბოლო ვერსია, 3.3, გამოვიდა მხოლოდ ერთი თვით ადრე 2024 წლის დეკემბერში, მაგრამ უკვე მოძველებულად გამოიყურებოდა.

ახლა ჩვენ ვიცით ამ ანგარიშსწორების ნაყოფი: დღეს, Meta-ს დამფუძნებელმა და აღმასრულებელმა დირექტორმა მარკ ცუკერბერგმა თავის Instagram ანგარიშზე გამოაცხადა Llama 4 მოდელების ახალი სერია, რომელთაგან ორი — 400 მილიარდი პარამეტრიანი Llama 4 Maverick და 109 მილიარდი პარამეტრიანი Llama 4 Scout — დღეს უკვე ხელმისაწვდომია დეველოპერებისთვის ჩამოსატვირთად და გამოსაყენებლად ან დასაყენებლად llama.com-ზე და AI კოდის გაზიარების საზოგადოება Hugging Face-ზე.

მასიური 2 ტრილიონი პარამეტრიანი Llama 4 Behemoth ასევე წინასწარ არის ნაჩვენები დღეს, თუმცა Meta-ს ბლოგპოსტი გამოშვებების შესახებ ამბობს, რომ ის ჯერ კიდევ გადის წვრთნას და არ იძლევა რაიმე მინიშნებას იმის შესახებ, როდის შეიძლება გამოვიდეს. (გაიხსენეთ, რომ პარამეტრები ეხება პარამეტრებს, რომლებიც მართავენ მოდელის ქცევას და რომ ზოგადად მეტი ნიშნავს უფრო მძლავრ და კომპლექსურ ყოვლისმომცველ მოდელს.)

ამ მოდელების ერთ-ერთი მთავარი მახასიათებელია ის, რომ ისინი ყველა მულტიმოდალურია — გაწვრთნილია და, შესაბამისად, შეუძლიათ ტექსტის, ვიდეოს და გამოსახულების მიღება და გენერირება (აუდიო არ არის ნახსენები).

კიდევ ერთი არის ის, რომ მათ აქვთ წარმოუდგენლად გრძელი კონტექსტური ფანჯრები — 1 მილიონი ტოკენი Llama 4 Maverick-ისთვის და 10 მილიონი Llama 4 Scout-ისთვის — რაც ტექსტის დაახლოებით 1500 და 15000 გვერდის ექვივალენტია, რომელთა დამუშავება მოდელს შეუძლია ერთჯერადი შეყვანის/გამოყვანის ურთიერთქმედებაში. ეს ნიშნავს, რომ მომხმარებელს თეორიულად შეუძლია ატვირთოს ან ჩასვას 7500 გვერდამდე ტექსტი და მიიღოს იმდენივე პასუხი Llama 4 Scout-ისგან, რაც მოსახერხებელი იქნება ინფორმაციით გაჯერებული სფეროებისთვის, როგორიცაა მედიცინა, მეცნიერება, ინჟინერია, მათემატიკა, ლიტერატურა და ა.შ.

აი, რა სხვა რამ გავიგეთ ამ გამოშვების შესახებ ჯერჯერობით:

ყველაფერი ექსპერტების ნაზავზე

სამივე მოდელი იყენებს „ექსპერტების ნაზავის (MoE)“ არქიტექტურულ მიდგომას, რომელიც პოპულარული გახდა OpenAI-სა და Mistral-ის უფრო ადრეული მოდელების გამოშვებებში, რომელიც არსებითად აერთიანებს მრავალ მცირე მოდელს, რომლებიც სპეციალიზირებულია ("ექსპერტები") სხვადასხვა ამოცანებში, საგნებსა და მედია ფორმატებში ერთიან მთლიანობაში, უფრო დიდ მოდელში. ამბობენ, რომ Llama 4-ის თითოეული გამოშვება, შესაბამისად, არის 128 სხვადასხვა ექსპერტის ნაზავი და უფრო ეფექტურია გასაშვებად, რადგან მხოლოდ კონკრეტული ამოცანისთვის საჭირო ექსპერტი, პლუს „საერთო“ ექსპერტი, ამუშავებს თითოეულ ტოკენს, ნაცვლად იმისა, რომ მთელმა მოდელმა იმუშაოს თითოეულზე.

როგორც Llama 4-ის ბლოგპოსტი აღნიშნავს:

შედეგად, მიუხედავად იმისა, რომ ყველა პარამეტრი ინახება მეხსიერებაში, მოდელების მომსახურებისას აქტიურდება მთლიანი პარამეტრების მხოლოდ ქვესიმრავლე. ეს აუმჯობესებს დასკვნის ეფექტურობას მოდელის მომსახურების ხარჯებისა და შეყოვნების შემცირებით — Llama 4 Maverick-ის გაშვება შესაძლებელია ერთ [Nvidia] H100 DGX ჰოსტზე მარტივი განლაგებისთვის, ან განაწილებული დასკვნით მაქსიმალური ეფექტურობისთვის.

Scout და Maverick საჯაროდ ხელმისაწვდომია თვითჰოსტინგისთვის, ხოლო ოფიციალური Meta ინფრასტრუქტურისთვის არ არის გამოცხადებული ჰოსტირებული API ან ფასების დონეები. ამის ნაცვლად, Meta ყურადღებას ამახვილებს გავრცელებაზე ღია ჩამოტვირთვისა და Meta AI-თან ინტეგრაციის გზით WhatsApp-ში, Messenger-ში, Instagram-სა და ვებ-ში.

Meta აფასებს Llama 4 Maverick-ის დასკვნის ღირებულებას $0.19-დან $0.49-მდე 1 მილიონ ტოკენზე (შეყვანისა და გამოყვანის 3:1 თანაფარდობის გამოყენებით). ეს მას მნიშვნელოვნად იაფს ხდის, ვიდრე საკუთრების მოდელები, როგორიცაა GPT-4o, რომლის ღირებულება შეფასებულია $4.38 მილიონ ტოკენზე, საზოგადოების შეფასებების საფუძველზე.

მართლაც, ამ პოსტის გამოქვეყნებიდან მალევე, მივიღე ინფორმაცია, რომ ღრუბლოვანი AI დასკვნის პროვაიდერმა Groq-მა ჩართო Llama 4 Scout და Maverick შემდეგ ფასებში:

  • Llama 4 Scout: $0.11 / M შეყვანის ტოკენები და $0.34 / M გამოყვანის ტოკენები, შერეული ტარიფით $0.13
  • Llama 4 Maverick: $0.50 / M შეყვანის ტოკენები და $0.77 / M გამოყვანის ტოკენები, შერეული ტარიფით $0.53
  • მსჯელობა ჩაშენებულია და ახალი, უფრო ეფექტური, ზომის აგნოსტიკური წვრთნის ტექნიკა: MetaP!

    Llama 4-ის სამივე მოდელი — განსაკუთრებით Maverick და Behemoth — აშკარად შექმნილია მსჯელობისთვის, კოდირებისთვის და ეტაპობრივი პრობლემების გადაჭრისთვის — თუმცა, როგორც ჩანს, ისინი არ ავლენენ აზროვნების ჯაჭვებს, როგორიცაა OpenAI „o“ სერიის სპეციალიზებული მსჯელობის მოდელები, ან DeepSeek R1.

    ამის ნაცვლად, ისინი, როგორც ჩანს, შექმნილია იმისთვის, რომ უფრო პირდაპირ კონკურენცია გაუწიონ „კლასიკურ“, არამსჯელობის LLM-ებს და მულტიმოდალურ მოდელებს, როგორიცაა OpenAI-ის GPT-4o და DeepSeek-ის V3 — Llama 4 Behemoth-ის გარდა, რომელიც ნამდვილად ემუქრება DeepSeek R1-ს (ამაზე მეტი ქვემოთ!)

    გარდა ამისა, Llama 4-ისთვის Meta-მ შექმნა პოსტ-ტრენინგის სპეციალური მილსადენები, რომლებიც ფოკუსირებულია მსჯელობის გაუმჯობესებაზე, როგორიცაა:

  • ზედამხედველობის ქვეშ მყოფი დახვეწის დროს „მარტივი“ მოთხოვნების 50%-ზე მეტის ამოღება.
  • უწყვეტი გამაძლიერებელი სწავლის მარყუჟის მიღება სულ უფრო რთული მოთხოვნებით.
  • გამოყენება pass@k შეფასებისა და სასწავლო გეგმის შერჩევა მათემატიკაში, ლოგიკასა და კოდირებაში შესრულების გასაძლიერებლად.
  • MetaP-ის დანერგვა, ახალი ტექნიკა, რომელიც ინჟინრებს საშუალებას აძლევს დაარეგულირონ ჰიპერპარამეტრები (როგორიცაა ფენების მიხედვით სწავლის სიჩქარე) მოდელებზე და გამოიყენონ ისინი სხვა მოდელის ზომებსა და ტოკენების ტიპებზე მოდელის განზრახული ქცევის შენარჩუნებისას.
  • MetaP განსაკუთრებით საინტერესოა, რადგან მისი გამოყენება მომავალში შესაძლებელია მოდელზე ჰიპერპარამეტრების დასაყენებლად და შემდეგ მისგან მრავალი სხვა ტიპის მოდელის მისაღებად, რაც გაზრდის წვრთნის ეფექტურობას.

    როგორც ჩემმა VentureBeat-ის კოლეგამ და LLM-ის ექსპერტმა ბენ დიქსონმა გამოთქვა მოსაზრება ახალი MetaP ტექნიკის შესახებ: „ამან შეიძლება დაზოგოს ბევრი დრო და ფული. ეს ნიშნავს, რომ ისინი ატარებენ ექსპერიმენტებს უფრო მცირე მოდელებზე, ნაცვლად იმისა, რომ გააკეთონ ისინი ფართომასშტაბიანებზე.”

    ეს განსაკუთრებით კრიტიკულია ისეთი დიდი მოდელების წვრთნისას, როგორიცაა Behemoth, რომელიც იყენებს 32K GPU-ს და FP8 სიზუსტეს, აღწევს 390 TFLOPs/GPU-ს 30 ტრილიონზე მეტ ტოკენზე — Llama 3-ის წვრთნის მონაცემებზე ორჯერ მეტს.

    სხვა სიტყვებით რომ ვთქვათ: მკვლევრებს შეუძლიათ მოდელს ზოგადად უთხრან, როგორ სურთ მისი მოქმედება და გამოიყენონ ეს მოდელის უფრო დიდ და პატარა ვერსიებზე და მედიის სხვადასხვა ფორმებზე.

    მძლავრი – მაგრამ ჯერ არა ყველაზე მძლავრი — მოდელების ოჯახი

    თავის საანონსო ვიდეოში Instagram-ზე (Meta-ს შვილობილი კომპანია, ბუნებრივია), Meta-ს აღმასრულებელმა დირექტორმა მარკ ცუკერბერგმა თქვა, რომ კომპანიის „მიზანია ააშენოს მსოფლიოში წამყვანი ხელოვნური ინტელექტი, გახადოს ის ღია კოდის და გახადოს ის საყოველთაოდ ხელმისაწვდომი, რათა ყველამ ისარგებლოს მსოფლიოში... მე დიდი ხანია ვამბობ, რომ ვფიქრობ, რომ ღია კოდის ხელოვნური ინტელექტი გახდება წამყვანი მოდელები და Llama 4-ით ეს იწყება.“

    ეს აშკარად ყურადღებით ჩამოყალიბებული განცხადებაა, ისევე როგორც Meta-ს ბლოგპოსტი, სადაც Llama 4 Scout-ს უწოდებენ, „მსოფლიოში საუკეთესო მულტიმოდალური მოდელი თავის კლასში და უფრო მძლავრია, ვიდრე Llama მოდელების ყველა წინა თაობა“ (ხაზგასმა ჩემია).

    სხვა სიტყვებით რომ ვთქვათ, ეს არის ძალიან მძლავრი მოდელები, რომლებიც ახლოს არიან გროვის სათავესთან თავიანთი პარამეტრების ზომის კლასში სხვებთან შედარებით, მაგრამ აუცილებლად არ აფიქსირებენ შესრულების ახალ რეკორდებს. მიუხედავად ამისა, Meta-ს სურდა ხაზი გაესვა მოდელებისთვის, რომლებსაც მისი ახალი Llama 4 ოჯახი აჯობებს, მათ შორის:

    Llama 4 Behemoth

  • აჯობებს GPT-4.5-ს, Gemini 2.0 Pro-სა და Claude Sonnet 3.7-ს:
  • MATH-500 (95.0)
  • GPQA Diamond (73.7)
  • MMLU Pro (82.2)
  • Llama 4 Maverick

  • აჯობებს GPT-4o-სა და Gemini 2.0 Flash-ს მულტიმოდალური მსჯელობის უმეტეს შეფასებებში:
  • ChartQA, DocVQA, MathVista, MMMU
  • კონკურენტუნარიანია DeepSeek v3.1-თან (45.8B პარამეტრი), ხოლო აქტიური პარამეტრების ნახევარზე ნაკლებს იყენებს (17B)
  • შეფასებების ქულები:
  • ChartQA: 90.0 (GPT-4o-ის 85.7-ის წინააღმდეგ)
  • DocVQA: 94.4 (92.8-ის წინააღმდეგ)
  • MMLU Pro: 80.5
  • ხარჯთეფექტური: $0.19–$0.49 1 მილიონ ტოკენზე
  • Llama 4 Scout

  • შეესაბამება ან აჯობებს მოდელებს, როგორიცაა Mistral 3.1, Gemini 2.0 Flash-Lite და Gemma 3:
  • DocVQA: 94.4
  • MMLU Pro: 74.3
  • MathVista: 70.7
  • შეუდარებელი 10M ტოკენის კონტექსტის სიგრძე — იდეალურია გრძელი დოკუმენტებისთვის, კოდების ბაზებისთვის ან მრავალმხრივი ანალიზისთვის
  • შექმნილია ერთი H100 GPU-ზე ეფექტური განლაგებისთვის
  • მაგრამ ამ ყველაფრის შემდეგ, როგორ შეედრება Llama 4 DeepSeek-ს?

    მაგრამ, რა თქმა უნდა, არსებობს მსჯელობაზე ორიენტირებული მოდელების მთელი სხვა კლასი, როგორიცაა DeepSeek R1, OpenAI-ის „o“ სერია (როგორიცაა GPT-4o), Gemini 2.0 და Claude Sonnet.

    ყველაზე მაღალი პარამეტრის მოდელის — Llama 4 Behemoth-ის — გამოყენებით და მისი შედარებით R1-32B-ისა და OpenAI o1 მოდელებისთვის DeepSeek R1-ის საწყისი გამოშვების ცხრილთან, აი, როგორ შეედრება Llama 4 Behemoth:

    შეფასებაLlama 4 BehemothDeepSeek R1OpenAI o1-1217
    MATH-50095.097.396.4
    GPQA Diamond73.771.575.7
    MMLU82.290.891.8

    რა დასკვნის გაკეთება შეგვიძლია?

  • MATH-500: Llama 4 Behemoth ოდნავ ჩამორჩება DeepSeek R1-სა და OpenAI o1-ს.
  • GPQA Diamond: Behemoth უსწრებს DeepSeek R1-ს, მაგრამ ჩამორჩება OpenAI o1-ს.
  • MMLU: Behemoth ჩამორჩება ორივეს, მაგრამ მაინც აჯობებს Gemini 2.0 Pro-სა და GPT-4.5-ს.
  • დასკვნა: მიუხედავად იმისა, რომ DeepSeek R1 და OpenAI o1 უსწრებენ Behemoth-ს რამდენიმე მეტრიკაში, Llama 4 Behemoth რჩება უაღრესად კონკურენტუნარიანი და ასრულებს მსჯელობის ლიდერბორდის სათავეში ან ახლოს თავის კლასში.

    უსაფრთხოება და ნაკლები პოლიტიკური „მიკერძოება“

    Meta-მ ასევე ხაზი გაუსვა მოდელის შესაბამისობასა და უსაფრთხოებას ისეთი ინსტრუმენტების დანერგვით, როგორიცაა Llama Guard, Prompt Guard და CyberSecEval, რათა დაეხმაროს დეველოპერებს სახიფათო შეყვანის/გამოყვანის ან მტრული მოთხოვნების აღმოჩენაში და გენერაციული შეტევითი აგენტის ტესტირების (GOAT) დანერგვით ავტომატური წითელი გუნდის ფორმირებისთვის.

    კომპანია ასევე აცხადებს, რომ Llama 4 აჩვენებს მნიშვნელოვან გაუმჯობესებას „პოლიტიკურ მიკერძოებაში“ და ამბობს, რომ „კონკრეტულად, [წამყვანი LLM-ები] ისტორიულად მარცხნივ იხრებოდნენ, როდესაც საქმე ეხებოდა სადავო პოლიტიკურ და სოციალურ თემებს“, რომ Llama 4 უკეთესად უახლოვდება მემარჯვენეებს… ცუკერბერგის მიერ აშშ-ის რესპუბლიკელი პრეზიდენტის დონალდ ჯ. ტრამპისა და მისი პარტიის მხარდაჭერის შემდეგ 2024 წლის არჩევნების შემდეგ.

    სად დგას Llama 4 ჯერჯერობით

    Meta-ს Llama 4 მოდელები აერთიანებს ეფექტურობას, გახსნილობას და მაღალი დონის შესრულებას მულტიმოდალურ და მსჯელობის ამოცანებში.

    Scout და Maverick ახლა საჯაროდ ხელმისაწვდომია და Behemoth წინასწარ არის ნაჩვენები როგორც უახლესი მასწავლებელი მოდელი, Llama ეკოსისტემა პოზიციონირებულია, რომ შესთავაზოს კონკურენტუნარიანი ღია ალტერნატივა OpenAI-ის, Anthropic-ის, DeepSeek-ისა და Google-ის უმაღლესი დონის საკუთრების მოდელებისთვის.

    იქნება ეს საწარმოს მასშტაბის ასისტენტების, AI კვლევის მილსადენების თუ გრძელი კონტექსტის ანალიტიკური ინსტრუმენტების აშენება, Llama 4 გთავაზობთ მოქნილ, მაღალი ხარისხის ვარიანტებს, რომლებიც აშკარად ორიენტირებულია მსჯელობაზე დაფუძნებულ დიზაინზე.

    კომენტარები