allo,
@allo@chaos.social avatar

@343max
3B Modelle laufen auf einem Pi, ggf. auch 7B mit starker Quantisierung. Das kleinste OpenELM Modell ist 270M, das läuft wahrscheinlich überall. Die Frage ist nur was man von einem so kleinen Modell erwarten kann.

@egghat

  • All
  • Subscribed
  • Moderated
  • Favorites
  • random
  • DreamBathrooms
  • mdbf
  • ngwrru68w68
  • magazineikmin
  • thenastyranch
  • rosin
  • khanakhh
  • osvaldo12
  • Youngstown
  • slotface
  • Durango
  • kavyap
  • InstantRegret
  • tacticalgear
  • anitta
  • ethstaker
  • modclub
  • cisconetworking
  • tester
  • GTA5RPClips
  • cubers
  • everett
  • megavids
  • provamag3
  • normalnudes
  • Leos
  • JUstTest
  • lostlight
  • All magazines