Prispevek o tem, kako lahko z učenjem modelov na manjši količini podatkov, ki pa so bolj kakovostni, zmanjšamo računalniške stroške.
Neprofitni raziskovalni inštitut Allen Institute for Artificial Intelligence (Ai2) je na spletu objavil družino odprtokodnih večmodalnih jezikovnih modelov, imenovanih Molmo (Multimodal Open Language Model: več v članku Deitke M, Clark C, Lee S et al. (2024) Molmo and PixMo: Open Weights and Open Data for State-of-the-Art Multimodal Models – free access article pdf), za katere pravi, da so enako uspešni kot najboljši lastniški modeli, kot so modeli razvijalcev OpenAI, Google in Anthropic.
Bistvo v razvoju Ai2 modelov je bil njihov razvoj na bistveno manjšem številu, toda zelo kakovostnih podatkov, kar naj bi zmanjšalo možno haluciniranja njihovih modelov.
Tukaj je povezava na presku Molmo modelov. Tukaj je povezava na blog o tem, kako delujejo modeli Molmo.