He puts into clear terms what had previously been an unarticulated, creeping suspicion I had about #GenAI. Clearly there are many angles from which to come at what's going on with #AI#hype , but I appreciate this one quite a bit.
I don't personally think LLMs will ruin everything, but neither do I think they will solve everything. Despite being in the tech world, I've been skeptical of many of the applications in which they've made an appearance in the past 18 months.
This is the cherry on top. You can no longer avoid it if you're a Google user. And even worse, its hallucinations will displace reliable but smaller sources of info.
The white background logo is the current hex sticker for my TidyDensity #R#package the others were generated from DALL-E #dalle3#gpt#chatgpt pretty cool
GPT4O combines audio, image, text. It can analyze actual audio. Also you can interrupt voice. It can pick up emotion from audio. You can also ask different speech with diffetrent style including singing! It can see the image in real time and chat on voice. For example solving equation in real time as you write on paper. This is amazing! #LLM#AI#GPT#ML#OpenAI
In #homeassistant, using #nodered to make an API call to a #llamacpp server running #mistral 7B model. I create a prompt that asks it to summarize all the data in my house from the sensors. The results are pretty impressive for such a little model. Now I get a customized rundown, Jarvis style.
Useful? Probably not. But cool as hell. :cool_skelly:
Było ujęcie, że inteligencja to jest zdolność rozwiązywania problemów.
Ale można też po prostu znać gotowe rozwiązania problemów, po prostu wyuczone, wtedy wystarczy podążać ścieżką według gotowego rozwiązania, wyciągniętą z pamięci.
Jest ujęcie, że inteligencja, to jest dobra kompresja danych, że sztuczna inteligencja to też na tym polega, tak powstaje model. A kompresja, to po prostu odnalezienie analogii, żeby móc coś upakować w mniejszym rozmiarze.
W mózgu też tak to działa.
Jakby to pociągnąć, to wyobraź sobie rozpakowane dane, z bardzo inteligentnego mózgu/modelu. To by była masa gotowych rozwiązań problemów, do każdej możliwej sytuacji.
Po tym rozwiązanie problemu, to już nie inteligentne myślenie, tylko przelecenie po (tych rozpakowanych) w pamięci gotowych rozwiązań, i zastosowanie ich.
Czyli ostatecznie wszystko sprowadziłoby się do zastosowania gotowych rozwiązań problemów, trzeba tylko zestawić problem z rozwiązaniem, i gotowe.
Inteligencja teoretycznie tworzy coś na poczekaniu, ale można spojrzeć na inteligencję w ten sposób, że to i tak jest lecenie sobie gotowymi rozwiązaniami, gotowymi ścieżkami. #artificialintelligence#ai#inteligencja#mozg#iq#gpt
Całkiem dobry komentarz nt. generowania kodu przy pomocy #AI:
"""
Po pierwsze, pisanie kodu jest zdecydowanie łatwiejsze niż jego przegląd. Z pomocą #LLM można zautomatyzować tę łatwiejszą część pracy, jednocześnie czyniąc tę drugą jeszcze trudniejszą, bo nie będzie nikogo, kogo będzie można zapytać, dlaczego zdecydowano się zrobić X w taki sposób, dwa miesiące wcześniej. Dokumentacji albo nie będzie wcale, albo będzie niezrozumiała, albo wprost błędna.
""" (tłum. moje)
“AI” as currently hyped is giant billion dollar companies blatantly stealing content, disregarding licenses, deceiving about capabilities, and burning the planet in the process.
It is the largest theft of intellectual property in the history of humankind, and these companies are knowingly and willing ignoring the licenses, terms of service, and laws that us lowly individuals are beholden to.
I've seen several respected luminaries argue that LLM is not "true AI" or "Strong AI" since it's based on large learning sets and predictive behavior. They argue that humans and animals are not taught on such large language models or data sets.
What are education and experience, if not Large Learning Models based on the teaching of schools, universities, and books?
A cybersecurity researcher finds that 20% of software packages recommended by GPT-4 are fake, so he builds one that 15,000 code bases already depend on, to prevent some hacker from writing a malware version.
Disaster averted in this case, but there aren't enough fingers to plug all the AI-generated holes 😬
Could an #LLM with the same encoder/token scheme as a #diffusers image model be used to increase the diffuser model's understanding of concepts? The LLM is going to have greater understanding as a whole than the limited connections that the diffuser is going to pick up on if trained only from captions.
OpenAI’s New GPT-4o Model Revolutionizes AI Landscape, Draws Mixed Reviews (articleshubspot.com)
The GPT-4o Model is an upgraded version of the highly successful GPT-4, which has been widely used in OpenAI's flagship product, ChatGPT.