კატეგორიები

CardanoNFTავტოარქიტექტურაახალი ამბებიახალიამბებიბიზნესიგანათლებაგარემოგარემო და ბუნებაგარემოს დაცვაგართობაეკონომიკაეკონომიკა/ბიზნესიზოგადითავგადასავალითამაშებიიარაღიისტორიაკოსმოსიკრიმინალიკრიპტოკრიპტოვალუტაკრიპტოსამყაროკულინარიაკულინარია რეცეპტებიკულტურაკულტურა/მედიამედიამეცნიერებამოგზაურობამოდამომხმარებელიმსოფლიომსოფლიო ამბებიმსოფლიო პოლიტიკანადირობაპოლიტიკაპროდუქტის მიმოხილვარობოტექნიკასაბრძოლო მასალასაზოგადოებასამართალისამხედროსილამაზესპორტისტარტაპებისტილისხვადასხვატექნიკატექნოლოგიატექნოლოგიებიტექნოლოგიები/ონლაინ კომერციატრანსპორტიტურიზმიუსაფრთხოებაფინანსებიფიტნესიშოუბიზნესიცხოვრებაწიგნებიხელოვნებახელოვნური ინტელექტიჯანდაცვაჯანმრთელობა

OpenAI უახლოეს თვეებში ახალი, „ღია“ ხელოვნური ინტელექტის ენობრივი მოდელის გამოშვებას გეგმავს

ტექნოლოგია ხელოვნური
OpenAI უახლოეს თვეებში ახალი, „ღია“ ხელოვნური ინტელექტის ენობრივი მოდელის გამოშვებას გეგმავს

OpenAI აცხადებს, რომ GPT-2-ის შემდეგ პირველ „ღია“ ენობრივ მოდელს „უახლოეს თვეებში“ გამოუშვებს. ეს ინფორმაცია კომპანიის ვებგვერდზე ორშაბათს გამოქვეყნებული უკუკავშირის ფორმიდან გახდა ცნობილი.

ფორმა, რომლის შევსებასაც OpenAI „დეველოპერებს, მკვლევარებსა და ფართო საზოგადოების წარმომადგენლებს“ სთავაზობს, მოიცავს ისეთ კითხვებს, როგორიცაა: „რა გსურთ ნახოთ OpenAI-ისგან ღია წონის მოდელში?“ და „რა ღია მოდელები გამოგიყენებიათ წარსულში?“

„ჩვენ მოხარული ვართ, ვითანამშრომლოთ დეველოპერებთან, მკვლევრებთან და ფართო საზოგადოებასთან, რათა შევაგროვოთ გამოხმაურება და ეს მოდელი მაქსიმალურად სასარგებლო გავხადოთ“, - ნათქვამია OpenAI-ის ვებგვერდზე. „თუ დაინტერესებული ხართ OpenAI-ის გუნდთან უკუკავშირის სესიაში მონაწილეობით, გთხოვთ, შეგვატყობინოთ ქვემოთ მოცემულ ფორმაში.“

OpenAI გეგმავს დეველოპერების ღონისძიებების გამართვას გამოხმაურების შესაგროვებლად და მომავალში მოდელის პროტოტიპების დემონსტრირებას. პირველი დეველოპერული ღონისძიება სან-ფრანცისკოში რამდენიმე კვირაში გაიმართება, რასაც ევროპისა და აზია-წყნარი ოკეანის რეგიონებში სესიები მოჰყვება. „ჩვენ წელს ვუშვებთ მოდელს, რომლის გაშვებაც საკუთარ აპარატურაზე შეგიძლიათ“ - დაწერა სტივენ ჰეიდელმა (@stevenheidel) 2025 წლის 31 მარტს.

OpenAI-ზე მზარდი ზეწოლა მოდის კონკურენტების მხრიდან, როგორიცაა ჩინური ხელოვნური ინტელექტის ლაბორატორია DeepSeek, რომლებმაც მოდელების გამოშვების „ღია“ მიდგომა მიიღეს. OpenAI-ის სტრატეგიისგან განსხვავებით, ეს „ღია“ კონკურენტები თავიანთ მოდელებს ხელოვნური ინტელექტის საზოგადოებისთვის ექსპერიმენტებისა და, ზოგიერთ შემთხვევაში, კომერციალიზაციისთვის ხელმისაწვდომს ხდიან.

ეს სტრატეგია ზოგიერთი ორგანიზაციისთვის საკმაოდ წარმატებული აღმოჩნდა. Meta-მ, რომელმაც მნიშვნელოვანი ინვესტიცია განახორციელა ღია ხელოვნური ინტელექტის მოდელების Llama-ს ოჯახში, მარტის დასაწყისში განაცხადა, რომ Llama-მ 1 მილიარდზე მეტი ჩამოტვირთვა დააგროვა. ამასობაში, DeepSeek-მა სწრაფად მოიპოვა მსოფლიოში დიდი მომხმარებელთა ბაზა და მიიპყრო ადგილობრივი ინვესტორების ყურადღება.

Reddit-ზე ახლახან გამართულ კითხვა-პასუხის რეჟიმში, OpenAI-ის აღმასრულებელმა დირექტორმა, სემ ოლტმენმა განაცხადა, რომ მისი აზრით, OpenAI ისტორიის არასწორ მხარეს აღმოჩნდა, როდესაც საქმე მის ტექნოლოგიებზე ღია კოდით წვდომის უზრუნველყოფას ეხება. „[პირადად მე ვფიქრობ, რომ ჩვენ უნდა] მოვიფიქროთ ღია კოდით გავრცელების განსხვავებული სტრატეგია“, - თქვა ოლტმენმა. „OpenAI-ში ყველა არ იზიარებს ამ მოსაზრებას და ეს ასევე არ არის ჩვენი ამჟამინდელი უმაღლესი პრიორიტეტი [...] ჩვენ უკეთეს მოდელებს გამოვუშვებთ [მომავალში], მაგრამ ჩვენ შევინარჩუნებთ ნაკლებ ლიდერობას, ვიდრე წინა წლებში გვქონდა.“

ორშაბათს, X-ზე გამოქვეყნებულ პოსტში, ოლტმენმა უფრო დეტალურად ისაუბრა OpenAI-ის ღია მოდელის გეგმებზე და განაცხადა, რომ OpenAI-ის მომავალ ღია მოდელს ექნება „მსჯელობის“ უნარები, OpenAI-ის o3-mini-ს მსგავსი. „[გამოშვებამდე ჩვენ შევაფასებთ ამ მოდელს ჩვენი მზადყოფნის ჩარჩოს მიხედვით, ისევე როგორც ნებისმიერ სხვა მოდელს“, - თქვა ოლტმენმა. „[და] ჩვენ დამატებით სამუშაოს გავაკეთებთ, იმის გათვალისწინებით, რომ ვიცით, რომ ეს მოდელი გამოშვების შემდეგ შეიცვლება [...] [ჩვენ] მოხარული ვართ, ვნახოთ, რას ააშენებენ დეველოპერები და როგორ გამოიყენებენ მას მსხვილი კომპანიები და მთავრობები, სადაც მათ ურჩევნიათ მოდელის დამოუკიდებლად გაშვება.“

Wall Street Journal-ის რეპორტიორის, კიჩ ჰეიჯის მომავალი წიგნიდან ამონარიდები, რომლებიც შაბათ-კვირას გამოქვეყნდა, ამტკიცებს, რომ ოლტმენმა OpenAI-ის აღმასრულებლები შეცდომაში შეიყვანა მოდელის უსაფრთხოების შემოწმებების შესახებ, 2023 წლის ნოემბერში მისი ხანმოკლე გადაყენებამდე.

კომენტარები