allo, 1 month ago @343max 3B Modelle laufen auf einem Pi, ggf. auch 7B mit starker Quantisierung. Das kleinste OpenELM Modell ist 270M, das läuft wahrscheinlich überall. Die Frage ist nur was man von einem so kleinen Modell erwarten kann. @egghat
@343max 3B Modelle laufen auf einem Pi, ggf. auch 7B mit starker Quantisierung. Das kleinste OpenELM Modell ist 270M, das läuft wahrscheinlich überall. Die Frage ist nur was man von einem so kleinen Modell erwarten kann.
@egghat