ხელოვნური ინტელექტის მოწინავე მოდელების მომზადება, როგორიცაა OpenAI, ChatGPT და Google-ის Gemini Ultra, მილიონობით დოლარს მოითხოვს, ხარჯები სწრაფად იზრდება. გამოთვლითი მოთხოვნების ზრდასთან ერთად, ასევე იზრდება მათი გადამზადებისთვის საჭირო გამოთვლითი სიმძლავრის ხარჯები. მოთხოვნასთან გასამკლავებლად, ხელოვნური ინტელექტის შემქმნელი კომპანიები ფიქრობენ, როგორ დაატრენინგონ გენერირებადი AI სისტემები. ხშირ შემთხვევაში, ეს “ფიქრი” გულისხმობს სტრატეგიებს გამოთვლითი ხარჯების შესამცირებლად.
Visual Capitalist-მა სულ ახლახან გამოაქვეყნა სტენფორდის უნივერსიტეტის 2024 წლის AI ინდექსის ანგარიში. ძირითადი ფაქტორები, რომლებიც ანგარიშში გაანალიზდა, მოიცავს ხელოვნური ინტელექტის მოდელების ტრენინგის ხანგრძლივობას, ტექნიკის გამოყენების სიჩქარეს და სასწავლო ტექნიკის ღირებულებას.
ანგარიშის მიხედვით ირკვევა, რომ გასულ წელს OpenAI-ს GPT-4-ის მომზადება დაახლოებით 78,4 მილიონი დოლარი დაჯდა, რაც მკვეთრად განსხვავდება Google-ის PaLM (540B) მოდელისგან, რომლის გადამზადების ღირებულებამ 12,4 მილიონი დოლარი შეადგინა. შედარებისთვის, 2017 წელს შემუშავებული Transformer-ის ადრეული AI მოდელის ტრენინგის ღირებულება $930 იყო. ცნობისთვის, ეს მოდელი ფუნდამენტურ როლს ასრულებს დღეს გამოყენებადი ხელოვნური ინტელექტის არქიტექტურის ჩამოყალიბებაში. Google-ის ხელოვნური ინტელექტის მოდელის, Gemini Ultra-ს გადამზადება კი კიდევ უფრო ძვირი ღირს, 191 მილიონი დოლარი. სრულ მონაცემებს იხილავთ ამ ბმულზე.
ამ გამოწვევების გათვალისწინებით, ხელოვნური ინტელექტის შემქმნელი კომპანიები ახალ გადაწყვეტილებებს ეძებენ ენობრივი მოდელების ტრენინგისთვის მზარდ ხარჯებთან საბრძოლველად. ეს მოიცავს უამრავ მიდგომას, მათ შორის პატარა AI მოდელების შექმნას, რომელთა დავალებაც კონკრეტული ამოცანების შესრულება იქნება. სხვა კომპანიები ატარებენ ექსპერიმენტებს საკუთარი, სინთეზური მონაცემების შექმნაზე ხელოვნური ინტელექტის სისტემებში შესანახად. თუმცა საბოლოოდ, ერთ სისტემაზე შეჯერება, როგორც ჩანს, შორეული პერსპექტივის ნაწილია.