kc, German
@kc@chaos.social avatar

OpenAI hat gestern sein neues KI-Modell "GPT-4o" vorgestellt.

Das "o" steht dabei für "omni" - das Modell soll nun alle Modalitäten beherrschen, also Text, Ton und Sehen.

Aus meiner Sicht ist das der letzte große Schritt, den LLMs machen mussten, um für viele Menschen sinnvoll als Assistenz funktionieren zu können, und damit auch die letzte große Entwicklung im Bereich der #Barrierefreiheit und für Menschen mit Behinderung. Klar, die Fähigkeiten werden zukünftig noch besser werden. Aber! 🧵

kc,
@kc@chaos.social avatar

Richtige Revolutionen der bisherigen Tragweite werden wir wohl nicht mehr sehen. GPT-4o kann nun bereits in Echtzeit sowohl Ton als auch Video-Eingaben verstehen und darauf reagieren. Das ist großartig - und sobald die Modelle auch Möglichkeiten bekommen, mit Software oder physischen Objekten direkt zu interagieren, werden viel mehr Menschen mehr oder weniger selbstbestimmten Zugang zur Welt bekommen. Das ist eine extrem gute Sache für .

kc,
@kc@chaos.social avatar

Diese Technologie ermöglicht Individualisierung in Bereichen, in denen sie zuvor vollkommen undenkbar war. Und sie bietet vielen Menschen eine ebenfalls mehr oder weniger berechenbare Assistenzleistung, die immer verfügbar ist.

Jetzt ist die Frage: Wollen, oder brauchen wir das überhaupt? In einigen Bereichen? Auf jeden Fall. In vielen anderen? Nah, überhaupt nicht.

Welche Bereiche? Keine Ahnung, weiß nicht. Aber das entscheiden sowieso nicht Menschen mit Behinderung.

kc,
@kc@chaos.social avatar

Entschieden wird das von Firmen wie OpenAI und Nichtbehinderten, die immer mehr Accessibility-Arbeit auf diese KI abwälzen werden.

Dass das irgendwann passieren wird und digitale Tools viele Bereiche dieser Arbeit abnehmen werden, wird seit vielen Jahren immer wieder gesagt, aber so richtig angekommen ist das "bis jetzt" immer noch nicht.

Aber wir sind wahrscheinlich nur Monate davon entfernt, dass z.B. "Be My Eyes" seinen originalen Dienst einstellen könnte.

kc,
@kc@chaos.social avatar

Je bekannter die Möglichkeiten der Sprachmodelle wie GPT-4o werden, desto mehr Leute werden sich darauf verlassen, und sie werden auch von anderen Menschen erwarten, dass sie es ihnen gleich tun. Das wird so schnell passieren, dass Menschen mit Behinderung, mit notorisch niedrigem mittlerem Bildungsniveau, gar keine Möglichkeit haben werden, mitzugestalten oder gar die Auswirkungen der Technologie (kennen) zu lernen. Wir werden keine Wahl haben.

kc,
@kc@chaos.social avatar

Meine persönliche Welt-Wahrnehmung wird in Zukunft immer stärker von den jetzt vorherrschenden gesellschaftlichen Stereotypen und den Ansichten von Firmen wie OpenAI oder Google eingefärbt werden, weil immer mehr davon nur noch durch diese Systeme gefiltert oder überhaupt zugänglich wird.

Ich habe also nicht die ursprünglich erwartete Selbstbestimmung und Inklusion dadurch gewonnen, sondern nur noch mehr Bevormundung als sowieso schon.

kc,
@kc@chaos.social avatar

Das strahlt übrigens auch auf andere gesellschaftliche Gruppen aus, zum Beispiel Frauen. "GPT-4o" gibt sich in fast allen aktuell verfügbaren Demos extrem "girly" und stereotyp devot und weiblich.

Ich habe große Angst davor, wie sich das entwickeln wird. Letzteres wird sicher aufgefangen und Teil einer größeren Debatte werden - Menschen mit Behinderung werden es ganz bestimmt nicht sein, und der Einfluss auf uns bleibt abseits des Positiven unsichtbar.

kc,
@kc@chaos.social avatar

Wenn ihr Medien schafft, ladet Leute wie mich ein, technisch über diese Sachen zu sprechen. #Barrierefreiheit und Selbstbestimmung funktionieren nur Hand in Hand, und wenn sich nicht bald etwas ändert, werden diese beiden Dinge für immer voneinander getrennt und Selbstbestimmung wird vollkommen unerreichbar.

Das ist ein unfassbar hoher Preis für vergleichsweise wenig Komfortgewinn.

ToniBarth,
@ToniBarth@troet.cafe avatar

@kc Ich bin mit vielen Punkten einverstanden, allerdings würde ich die Welt nicht so schwarz malen. Bereits jetzt gibt es lokale LLMs, die ähnlich gut performen wie ChatGPT3, und teilweise 4. Kaum etwas über ein Jahr nach Veröffentlichung. Am Anfang wird natürlich OpenAI vorausrennen, aber alle lokalen LLMs werden nachziehen, Hardware wird besser, diversere Gruppen werden angepasste LLMs trainieren und irgendwann suchen wir uns unsere passende KI aus, uns zu unterstützen.

ToniBarth,
@ToniBarth@troet.cafe avatar

@kc Die Idee kommt von Firmen, aber man kann sich, auch aktuell, immer unabhängig machen. Es ist nicht immer ganz einfach, aber möglich. Unsere Welt wird sich der Abhängigkeit immer bewusster und bemüht sich darum, auch ohne Gatekeeper arbeitsfähig zu sein. Und das wird sich in den nächsten 10 Jahren auch nicht ändern. Dienste wie Be My Eyes kann und wird es vermutlich trotzdem ersetzen, aber nicht unbedingt nur zugunsten von OpenAI und Google.

kc,
@kc@chaos.social avatar

@ToniBarth Ich sehe, woher du kommst, aber ich glaube, eine Sache ist dir dabei entgangen: Wir entscheiden in den allerseltensten Fällen selbst darüber, welches Modell wo genutzt wird, und noch viel weniger darüber, wofür andere Leute sie "für uns" einsetzen, um Inhalte "barrierefreier" zu machen. Das ist jetzt schon so, und wird sich auch mit der Verfügbarkeit von lokalen Modellen nicht ändern, weil die Branche sie nicht als Assistenz vermarktet, sondern als volle Mitarbeiter*innen.

ToniBarth,
@ToniBarth@troet.cafe avatar

@kc Ich habe keinen Einfluss darüber, welches Modell von Anderen wofür genutzt wird, aber ich selbst kann mit lokalen Modellen genau entscheiden, welches ich für welchen Zweck einsetzen will. Das ist genau der Zweck, ich kann meine Fragen heute an ein lokales Modell A, B oder C stellen, jedes wird anders antworten, so wird es auch in Zukunft laufen, nur das alle irgendwann ähnlich gut sein werden und wir uns daher auf Dinge wie Diversität statt auf Leistung konzentrieren können.

kc,
@kc@chaos.social avatar

@ToniBarth Das setzt voraus, dass es überhaupt noch "lokale" Anwendungsfälle für Modelle dafür geben wird, und nicht sämtliche Inhalte sowieso on-demand generiert werden mit vielviel besseren Modellen, die noch mehr Rechenleistung zur Verfügung haben. Die "lokalen Modelle" jetzt sind auch eher ein Angebot an Unternehmen, nicht auf teure, kostenmäßig intransparente APIs setzen zu müssen, sondern um fixe kosten zu haben. Die wirklich "guten" Modelle wie Llama laufen gar nicht auf Consumer-Hardware

ToniBarth,
@ToniBarth@troet.cafe avatar

@kc Llama läuft lokal, das einzige Problem bisher ist der notwendige RAM und die Rechenpower, und bereits jetzt ist es so das jedes Jahr die Leistung von Grafikkarten und ML-Chips explodiert, weil genau für solche Anwendungsfälle vorgesorgt und entwickelt wird. Natürlich wird die Cloud immer leistungsstärker bleiben, aber warum sollte ich noch etwas Besseres brauchen, wenn mein lokales Modell bereits für mich navigieren oder mir Bilder perfekt beschreiben kann?

  • All
  • Subscribed
  • Moderated
  • Favorites
  • random
  • DreamBathrooms
  • magazineikmin
  • ethstaker
  • InstantRegret
  • tacticalgear
  • rosin
  • love
  • Youngstown
  • slotface
  • ngwrru68w68
  • kavyap
  • cubers
  • thenastyranch
  • mdbf
  • provamag3
  • modclub
  • GTA5RPClips
  • normalnudes
  • khanakhh
  • everett
  • cisconetworking
  • osvaldo12
  • anitta
  • Leos
  • Durango
  • tester
  • megavids
  • JUstTest
  • All magazines