Cascades maakt het gebruik van LLM erg goedkoop, LLM screent LLM efficiënt op daadwerkelijke betrouwbaarheid, twijfelachtige standaarden en meer


Onderzoekers testen hoe taalmodellen kosteneffectiever kunnen worden gebruikt (avatar).
Foto: Lucas Baumel

Dynamische vooruitgang op het gebied van kunstmatige intelligentie creëert enorme kansen voor innovatie. D:ECONOMY biedt u een regelmatig en gecoördineerd overzicht van de huidige onderzoeksvoortgang.

drDit omvat twee zeer verschillende manieren waarop AI-onderzoekers het gebruik van AI-modellen kosteneffectiever en efficiënter willen maken. Daarnaast is het tijd om LLM-normen die niet serieus moeten worden genomen, nader te bekijken.

Onze gids voor AI-onderzoek van vandaag behandelt de volgende onderwerpen:

  • Algoritmisch gegradeerde en gecascadeerde LLM's zijn kosteneffectiever dan het gebruik van slechts één model.
  • De lange output van LLM's kan efficiënt en kosteneffectief worden geverifieerd op feitelijke juistheid met behulp van een tweede LLM en een zoekopdracht op internet.
  • Taalmodellen kunnen de inherente asymmetrie tussen kopers en verkopers op informatiemarkten verminderen.
  • LLM's gebaseerd op meerkeuze zijn vaak minder nuttig dan doorgaans wordt aangenomen.
  • Beter dan een switch: Onderzoekers bieden kleinere 1-bit-modellen aan die efficiënter zijn dan ‘gewone’ LLM’s in termen van latentie, doorvoer en stroomverbruik.
READ  Moeten nieuwe grafische kaarten tot 800 watt elektriciteit nodig hebben?

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *