კატეგორიები

CardanoNFTავტოარქიტექტურაახალი ამბებიახალიამბებიბიზნესიგანათლებაგარემოგარემო და ბუნებაგარემოს დაცვაგართობაეკონომიკაეკონომიკა/ბიზნესიზოგადითავგადასავალითამაშებიიარაღიისტორიაკოსმოსიკრიმინალიკრიპტოკრიპტოვალუტაკრიპტოსამყაროკულინარიაკულინარია რეცეპტებიკულტურაკულტურა/მედიამედიამეცნიერებამოგზაურობამოდამომხმარებელიმსოფლიომსოფლიო ამბებიმსოფლიო პოლიტიკანადირობაპოლიტიკაპროდუქტის მიმოხილვარობოტექნიკასაბრძოლო მასალასაზოგადოებასამართალისამხედროსილამაზესპორტისტარტაპებისტილისხვადასხვატექნიკატექნოლოგიატექნოლოგიებიტექნოლოგიები/ონლაინ კომერციატრანსპორტიტურიზმიუსაფრთხოებაფინანსებიფიტნესიშოუბიზნესიცხოვრებაწიგნებიხელოვნებახელოვნური ინტელექტიჯანდაცვაჯანმრთელობა

ხელოვნური ინტელექტის სიცრუის დეტექტორი: როგორ შეუძლია HallOumi-ის ღია კოდის მიდგომამ ჰალუცინაციების აღმოფხვრას ხელი შეუწყოს ხელოვნური ინტელექტის დანერგვას ბიზნესში

ტექნოლოგია ხელოვნურიინტელექტი
ხელოვნური ინტელექტის სიცრუის დეტექტორი: როგორ შეუძლია HallOumi-ის ღია კოდის მიდგომამ ჰალუცინაციების აღმოფხვრას ხელი შეუწყოს ხელოვნური ინტელექტის დანერგვას ბიზნესში

ხელოვნური ინტელექტის დანერგვის რბოლაში, ერთი დაბრკოლება მუდმივად ბლოკავს გზას: ჰალუცინაციები. ხელოვნური ინტელექტის სისტემების მიერ მოგონილმა პასუხებმა გამოიწვია ყველაფერი, იურისტებისთვის იურიდიული სანქციებიდან დაწყებული, კომპანიების იძულებამდე, პატივი ეცათ გამოგონილი პოლიტიკისთვის.

ორგანიზაციებმა სცადეს სხვადასხვა მიდგომა ჰალუცინაციების გამოწვევის გადასაჭრელად, მათ შორის უკეთესი მონაცემებით დახვეწა, გაძლიერებული გენერაციის მოპოვება (RAG) და დაცვითი მექანიზმები. ღია კოდის განვითარების ფირმა Oumi ახლა გთავაზობთ ახალ მიდგომას, თუმცა გარკვეულწილად "ყველიანი" სახელით.

კომპანიის სახელი არის აკრონიმი Open Universal Machine Intelligence (Oumi). მას ყოფილი Apple-ისა და Google-ის ინჟინრები ხელმძღვანელობენ, რომლებიც მიზნად ისახავენ უპირობოდ ღია კოდის ხელოვნური ინტელექტის პლატფორმის შექმნას.

2 აპრილს კომპანიამ გამოუშვა HallOumi, ღია კოდის მოთხოვნის გადამოწმების მოდელი, რომელიც შექმნილია სიზუსტის პრობლემის გადასაჭრელად ჰალუცინაციების გამოვლენის ახალი მიდგომით. ჰალუმი, რა თქმა უნდა, მყარი ყველის სახეობაა, მაგრამ ეს არაფერ შუაშია მოდელის სახელთან. სახელი არის ჰალუცინაციისა და Oumi-ს კომბინაცია, თუმცა გამოშვების დრო პირველ აპრილთან ახლოს შეიძლება ზოგს ეჭვი გაეჩინა, რომ გამოშვება ხუმრობა იყო - მაგრამ ეს არ არის ხუმრობა; ეს არის ძალიან რეალური პრობლემის გადაწყვეტა.

„ჰალუცინაციები ხშირად სახელდება, როგორც ერთ-ერთი ყველაზე კრიტიკული გამოწვევა გენერაციული მოდელების დანერგვაში," - განუცხადა VentureBeat-ს Oumi-ს აღმასრულებელმა დირექტორმა, მანოს კუკუმიდისმა. - „საბოლოო ჯამში, ეს ნდობის საკითხამდე მიდის - გენერაციული მოდელები გაწვრთნილია ისეთი გამომავალი მონაცემების წარმოებისთვის, რომლებიც ალბათური თვალსაზრისით სავარაუდოა, მაგრამ არა აუცილებლად ჭეშმარიტი."

როგორ მუშაობს HallOumi საწარმოში ხელოვნური ინტელექტის ჰალუცინაციების გადასაჭრელად

HallOumi აანალიზებს ხელოვნური ინტელექტის მიერ გენერირებულ კონტენტს წინადადებების მიხედვით. სისტემა იღებს როგორც წყაროს დოკუმენტს, ასევე ხელოვნური ინტელექტის პასუხს, შემდეგ კი განსაზღვრავს, უჭერს თუ არა წყარო მასალა მხარს პასუხში თითოეულ პრეტენზიას.

„რასაც HallOumi აკეთებს, არის თითოეული წინადადების დამოუკიდებლად ანალიზი," - განმარტა კუკუმიდისმა. - „თითოეული წინადადებისთვის, რომელსაც ის აანალიზებს, ის გეუბნებათ კონკრეტულ წინადადებებს შეყვანის დოკუმენტში, რომლებიც უნდა შეამოწმოთ, ასე რომ თქვენ არ გჭირდებათ მთელი დოკუმენტის წაკითხვა იმის დასადასტურებლად, არის თუ არა ის, რაც [დიდი ენის მოდელმა] LLM-მა თქვა, ზუსტი."

მოდელი უზრუნველყოფს სამ ძირითად გამომავალ მონაცემს თითოეული გაანალიზებული წინადადებისთვის:

  • ნდობის ქულა, რომელიც მიუთითებს ჰალუცინაციის ალბათობაზე.
  • კონკრეტული ციტატები, რომლებიც აკავშირებს პრეტენზიებს დამხმარე მტკიცებულებებთან.
  • ადამიანისთვის გასაგები ახსნა, რომელიც დეტალურად აღწერს, თუ რატომ არის პრეტენზია მხარდაჭერილი ან დაუსაბუთებელი.
  • „ჩვენ ის ძალიან დახვეწილად გავწვრთნეთ," - თქვა კუკუმიდისმა. - „ჩვენი ლინგვისტებისთვისაც კი, როდესაც მოდელი რაღაცას ჰალუცინაციად აღნიშნავს, თავდაპირველად ვფიქრობთ, რომ ის სწორად გამოიყურება. შემდეგ, როდესაც უყურებთ დასაბუთებას, HallOumi ზუსტად მიუთითებს დახვეწილ მიზეზზე, თუ რატომ არის ეს ჰალუცინაცია - რატომ აკეთებდა მოდელი რაიმე სახის ვარაუდს, ან რატომ არის ის არაზუსტი ძალიან დახვეწილი გზით."

    HallOumi-ის ინტეგრირება Enterprise AI სამუშაო პროცესებში

    არსებობს რამდენიმე გზა, რომლითაც HallOumi შეიძლება გამოყენებულ იქნას და ინტეგრირდეს საწარმოში ხელოვნურ ინტელექტთან დღეს.

    ერთ-ერთი ვარიანტია მოდელის გამოცდა გარკვეულწილად ხელით პროცესის გამოყენებით, თუმცა ონლაინ დემო ინტერფეისის მეშვეობით.

    API-ზე დაფუძნებული მიდგომა უფრო ოპტიმალური იქნება წარმოებისა და საწარმოს ხელოვნური ინტელექტის სამუშაო პროცესებისთვის. მანოსმა განმარტა, რომ მოდელი სრულად ღია კოდია და შეიძლება ჩართული იყოს არსებულ სამუშაო პროცესებში, იმუშაოს ლოკალურად ან ღრუბელში და გამოიყენებოდეს ნებისმიერ LLM-თან.

    პროცესი მოიცავს ორიგინალური კონტექსტისა და LLM-ის პასუხის HallOumi-ში შეყვანას, რომელიც შემდეგ ამოწმებს გამომავალ მონაცემებს. საწარმოებს შეუძლიათ HallOumi-ის ინტეგრირება თავიანთი ხელოვნური ინტელექტის სისტემებში ვერიფიკაციის ფენის დასამატებლად, რაც ხელს უწყობს ხელოვნური ინტელექტის მიერ გენერირებულ კონტენტში ჰალუცინაციების აღმოჩენასა და პრევენციას.

    Oumi-მ გამოუშვა ორი ვერსია: გენერაციული 8B მოდელი, რომელიც უზრუნველყოფს დეტალურ ანალიზს და კლასიფიკატორის მოდელი, რომელიც აწვდის მხოლოდ ქულას, მაგრამ უფრო დიდი გამოთვლითი ეფექტურობით.

    HallOumi vs RAG vs დამცავი მექანიზმები საწარმოს ხელოვნური ინტელექტის ჰალუცინაციებისგან დასაცავად

    რაც HallOumi-ს სხვა დასაბუთების მიდგომებისგან გამოარჩევს, არის ის, თუ როგორ ავსებს ის და არა ცვლის არსებულ ტექნიკას, როგორიცაა RAG (გაძლიერებული გენერაციის მოპოვება), ხოლო გვთავაზობს უფრო დეტალურ ანალიზს, ვიდრე ტიპიური დამცავი მექანიზმები.

    „შეყვანის დოკუმენტი, რომელსაც LLM-ის მეშვეობით კვებავთ, შეიძლება იყოს RAG," - თქვა კუკუმიდისმა. - „ზოგიერთ სხვა შემთხვევაში, ეს არ არის ზუსტად RAG, რადგან ადამიანები ამბობენ: „მე არაფერს არ ვიღებ. მე უკვე მაქვს დოკუმენტი, რომელიც მაინტერესებს. მე გეუბნებით, რომ ეს არის დოკუმენტი, რომელიც მაინტერესებს. შეაჯამე ის ჩემთვის.' ასე რომ, HallOumi შეიძლება გამოყენებულ იქნას RAG-ზე, მაგრამ არა მხოლოდ RAG-ის სცენარებზე."

    ეს განსხვავება მნიშვნელოვანია, რადგან მაშინ როდესაც RAG მიზნად ისახავს გენერაციის გაუმჯობესებას შესაბამისი კონტექსტის მიწოდებით, HallOumi ამოწმებს გამომავალ მონაცემებს გენერაციის შემდეგ, იმისდა მიუხედავად, თუ როგორ იქნა მიღებული ეს კონტექსტი.

    დამცავ მექანიზმებთან შედარებით, HallOumi უზრუნველყოფს უფრო მეტს, ვიდრე ბინარული ვერიფიკაცია. მისი წინადადებების დონეზე ანალიზი ნდობის ქულებითა და ახსნა-განმარტებებით მომხმარებლებს დეტალურ გაგებას აძლევს იმის შესახებ, თუ სად და როგორ ხდება ჰალუცინაციები.

    HallOumi აერთიანებს მსჯელობის სპეციალიზებულ ფორმას თავის მიდგომაში.

    „ნამდვილად იყო მსჯელობის ვარიანტი, რომელიც ჩვენ გავაკეთეთ მონაცემების სინთეზირებისთვის," - განმარტა კუკუმიდისმა. - „ჩვენ მოდელს ვხელმძღვანელობდით, რომ ემსჯელა ეტაპობრივად ან პრეტენზია ქვემოთ-პრეტენზიით, რათა ეფიქრა იმაზე, თუ როგორ უნდა დაეკლასიფიცირებინა უფრო დიდი პრეტენზია ან უფრო დიდი წინადადება პროგნოზის გასაკეთებლად."

    მოდელს ასევე შეუძლია აღმოაჩინოს არა მხოლოდ შემთხვევითი ჰალუცინაციები, არამედ მიზანმიმართული დეზინფორმაციაც. ერთ დემონსტრაციაში კუკუმიდისმა აჩვენა, თუ როგორ ამოიცნო HallOumi, როდესაც DeepSeek-ის მოდელმა უგულებელყო მოწოდებული Wikipedia-ს კონტენტი და სანაცვლოდ წარმოქმნა პროპაგანდის მსგავსი კონტენტი ჩინეთის COVID-19-ზე რეაგირების შესახებ.

    რას ნიშნავს ეს საწარმოს ხელოვნური ინტელექტის დანერგვისთვის

    საწარმოებისთვის, რომლებიც ცდილობენ ლიდერობა ხელოვნური ინტელექტის დანერგვაში, HallOumi გვთავაზობს პოტენციურად გადამწყვეტ ინსტრუმენტს გენერაციული ხელოვნური ინტელექტის სისტემების უსაფრთხოდ დანერგვისთვის საწარმოო გარემოში.

    „მე ნამდვილად იმედი მაქვს, რომ ეს ბევრ სცენარს გახსნის," - თქვა კუკუმიდისმა. - „ბევრ საწარმოს არ შეუძლია ენდოს თავის მოდელებს, რადგან არსებული იმპლემენტაციები არ იყო ძალიან ერგონომიული ან ეფექტური. იმედი მაქვს, HallOumi მათ საშუალებას მისცემს ენდონ თავიანთ LLM-ებს, რადგან ახლა მათ აქვთ რაღაც, რაც მათ საჭირო ნდობას ჩაუნერგავს."

    რაც შეეხება საწარმოებს, რომლებიც უფრო ნელი ხელოვნური ინტელექტის დანერგვის მრუდზე არიან, HallOumi-ის ღია კოდის ბუნება ნიშნავს, რომ მათ შეუძლიათ ექსპერიმენტები ჩაატარონ ტექნოლოგიაზე ახლავე.

    როდესაც ხელოვნური ინტელექტის სისტემები აგრძელებენ წინსვლას, ისეთი ინსტრუმენტები, როგორიცაა HallOumi, შეიძლება გახდეს საწარმოს ხელოვნური ინტელექტის სტეკების სტანდარტული კომპონენტები - აუცილებელი ინფრასტრუქტურა ხელოვნური ინტელექტის ფაქტების ფიქციისგან გამოსაყოფად.

    ასინეთა AI მიერ არის დამუსავებული.

    კომენტარები