Według Marka Gurmana z Bloomberga, Apple jest gotowe do zaprezentowania szeregu funkcji wykorzystujących generatywną sztuczną inteligencję.
Gurman przedstawia więcej szczegółów na temat tego, czego można się spodziewać po nacisku Apple na AI podczas nadchodzącego WWDC 2024, które rozpocznie się już 10 czerwca.
W ramach zmian firma poprawi możliwości głosowe Siri, nadając jej bardziej konwersacyjny charakter i doda funkcje, które pomogą użytkownikom w codziennym życiu – podejście to Apple ma nazwać „proaktywną inteligencją”.
Obejmie to usługi takie jak automatyczne podsumowywanie powiadomień z iPhone’a, szybkie streszczanie artykułów z wiadomościami i transkrypcję notatek głosowych, a także ulepszanie istniejących funkcji, które automatycznie wypełniają kalendarz i zasugerują aplikacje, których powinniśmy użyć. Pojawią się również pewne ulepszenia w Zdjęciach w postaci edycji opartej na sztucznej inteligencji, ale żadna z tych funkcji nie zrobi wrażenia na osobach, które korzystały ze sztucznej inteligencji w aplikacjach Adobe Inc. przez ostatnie kilka miesięcy.
Gurman dodał, że podczas gdy Apple będzie polegać głównie na przetwarzaniu AI na urządzeniu, firma będzie je również dostarczać za pośrednictwem chmury w centrach danych, które zawierają wysokiej klasy procesory Apple Silicon zaprojektowane dla komputerów Mac (flota Apple M4). Zauważył również, że chatbot podobny do ChatGPT będzie zauważalnie nieobecny w nadchodzących funkcjach AI od Apple.
Mówi się, że kierownictwo Apple przyznało wewnętrznie, że czas „nadrabić zaległości”. To jednak potrwa.
Od czasu do czasu przeglądam sobie filmiki na YT i FB podpowiadane przez algorytmy i... powiem Wam, że utwierdzam się w przekonaniu, że #AI nigdy nie wyprze prawdziwych artystów.
A wiecie dlaczego?
Bo skoro w social mediach i tak królują filmiki, które są dosłownie plagiatem lub ewidentną "zrzynką" 1:1 od innych twórców, to #SztucznaInteligencja niczego nie zmieni.
Jeszcze dobrze nie opadł kurz wzniesiony przez rozentuzjazmowany tłum obserwatorów poczynań OpenAI (nowy i to dostępny za darmo dla każdego model GPT-4o), a tu konkurent z Mountain View, Google, wytoczył swoje AI. Oto w reporterskim skrócie, co pokazało Google na tegorocznej prezentacji otwierającej konferencję programistyczną Google I/O 2024.
Zacznę od pewnego disclaimera. Wszystko, co dziś ogłosiło Google, dotyczy przede wszystkim użytkowników ze Stanów Zjednoczonych. Jak nie od dziś wiadomo, wszelkie innowacje trafiają najpierw na lokalny dla technologicznego giganta, amerykański rynek, ale z czasem ogłoszone nowości (przynajmniej niektóre) powinny trafić również do nas. OK, startujemy:
Na początek ciekawostka. Wszystkich, którzy oczekiwali na prezentację keynote Google I/O 2024 witała muzyka generowana algorytmicznie przez AI, za pomocą autorskich rozwiązań Google, dokładniej czegoś, co sama firma określa jako Google MusicFX DJ tool. Jeżeli chcecie ją usłyszeć, odtwórzcie sobie kilka pierwszych minut poniższej relacji z prezentacji otwierającej tegoroczną konferencję:
Jeżeli muzyka was nie interesuje spokojnie możecie pominąć ponad godzinę powyższego wideo, a jeżeli nie macie czasu na oglądanie reszty, to – tak jak zapowiedziałem – poniżej skrót nowości.
Gemini 1.5 Flash
Google ogłosiło wprowadzenie do swojego portfolio nowego, szybszego modelu AI: Gemini 1.5 Flash. Ten model jest ponoć równie wydajny jak Gemini 1.5 Pro, ale jest zoptymalizowany pod kątem wykonywania zadań wymagających wysokiej częstotliwości i małych opóźnień. Ponadto samo okno kontekstowe Gemini 1.5 Pro wzrosło z 1 miliona do 2 milionów tokenów, co w praktyce oznacza znacznie głębsze “rozumienie” kontekstu. Ponadto Gemini 1.5 Pro pojawi się na pasku bocznym Google Workspace na kontach płatnych subskrybentów tej usługi i dzięki temu ma ułatwić inteligentne zarządzanie wszystkimi danymi z Dysku Google, np. AI może sama pisać maile na podstawie wskazanych przez użytkownika np. danych z arkusza czy innych dokumentów. Na razie rozwiązanie uruchomione jest testowo ograniczonej liczbie użytkowników, w przyszłym miesiącu ma zostać udostępnione subskrybentom płatnej wersji Gemini.
Imponujący Astra Google
Projekt Astra Google to prezentacja multimodalnego asystenta AI, który „rozumie” to, co widzi np. przez kamerę smartfona. Choć bardziej pasuje określenie asystenta to przyszłych smart-okularów. Wówczas przydatność tego typu rozwiązania znacznie wzrośnie. Zapomniałeś gdzie schowałeś klucze? Asystent Astra Google ci podpowie, gdzie leżą, bo przecież widział jak je kładłeś. Przydatne? Owszem, ale ja i tak mam skojarzenia z mroczną wizją rejestratorów tego co widzi użytkownik z jednego z odcinków serialu “Black Mirror”. Kto wie, ten wie.
Gemini i Zdjęcia Google
Masz dużo zdjęć w chmurze Google’a? Tego lata firma ma wprowadzić rozumienie przez Gemini całej biblioteki zdjęć danego użytkownika. Na prezentacji Sundar Pichai, CEO Google, zaprezentował to pytając Gemini o własny numer rejestracyjny. AI nie tylko udzieliła poprawnej odpowiedzi, ale też wyświetliła zdjęcie samochodu szefa Google z widoczną tablicą.
Wyszukiwanie w Google Lens
Google Lens samo w sobie nowością nie jest, ale usługa otrzyma nowe funkcje. Umożliwi ona wyszukiwanie danych nie tylko na podstawie wskazanych przez użytkownika zdjęć, ale również wideoklipów.
Veo, konkurent Sory
Kolejna nowość to Veo, generatywny model AI zdolnej do generowania wideo Full HD (1080p) na podstawie wskazówek tekstowych, graficznych lub innego wideo, dostępne różne tryby tworzenia (np. nagranie lotnicze, tryb poklatkowy etc.). Tak Google odpowiada na rozwiązanie OpenAI o nazwie Sora.
Google Gems, czyli stwórz sobie czatbota
Google Gems to rozwiązanie, które pozwala nauczyć Gemini specyficznego zachowania AI. Jeżeli na przykład chcesz, by sztuczna inteligencja zachowywała się jak np. dietetyk pilnujący twojego jadłospisu, proponującego przepisy i motywującego do zmiany złych nawyków żywieniowych, Gems pozwoli to zrobić.
Gemini Live – odpowiedź na GPT-4o z kamerą
Wczoraj świat zachwycił się OpenAI i ChatGPT z nowym GPT-4o rozmawiającym z użytkownikiem za pośrednictwem kamery w smartfonie (reagując na emocje wyrażane mimiką). Google odpowiedziało prezentując Gemini Live. To konwersacyjny czatbot, który nie tylko może cię obserwować przez kamerę urządzenia (smartfon/laptop), ale również dostosowuje głos emocjonalnie, by dialog z maszyną był bardziej naturalny.
Gemini Nano ochroni smartfony z Androidem przed spamem i dołączy do przeglądarki Chrome
Gemini Nano, lekka wersja modelu Gemini, trafi do Androida i będzie m.in. chronić użytkowników przed prawdopodobnym spamem i próbami ataków phishingowych, ponadto ten lekki model ma zostać zintegrowany z przeglądarką Google Chrome na komputerze.
Zakreśl by wyszukać lepiej rozumie matematykę
Wyszukiwanie obrazkowe typu Circle to find (po polsku: zakreśl by wyszukać) nowością samo w sobie nie jest, ale Google ogłosiło, że teraz algorytm analizujący zaznaczony przez użytkownika fragment np. zdjęcia, rozumie matematykę. Przy czym wyraźnie zaznaczono, że nie odrobi on prac domowych uczniom, którzy zamiast samodzielnie rozwiązać zadanie spróbują iść na łatwiznę, ale AI wyświetli proponowane kroki prowadzące do rozwiązania danego problemu matematycznego.
Sztuczna inteligencja to nie tylko zagrożenie dla prywatności, ale i dla zdrowia i życia np. przez błędy rozpoznawania obrazu czy autonomiczne pojazdy. Apple uchyla drzwi rynku alternatywnych aplikacji na swoje urządzenia pod naciskiem UE, a Google poprawia prywatność w swoich usługach.
Stworzony przez sztuczną inteligencję slogan został wybrany po przeanalizowaniu ponad 500 kandydujących fraz. Czy to jednak oznacza przyśpieszone wybory w Japonii?
W zeszłym tygodniu pisałem o tym, że Apple prowadzi intensywne rozmowy na temat partnerstwa z Google i OpenAI. Mark Gurman z Bloomberga wyjaśnia ich możliwe powody.
Na łamach ostatniego wydania swojego newslettera, Gurman pisze, że Apple tak bardzo zależy na nawiązaniu partnerstwa z jedną z wymienionych wyżej firm, ponieważ:
Firma prawdopodobnie zdoła nakłonić Google lub kogoś innego do zapłacenia jej absurdalnych sum za status bycia partnerem premium w ich systemach operacyjnych. Jeśli będzie to Google, gigant wyszukiwania może stać się preferowaną usługą generatywnej sztucznej inteligencji na telefonach Apple i Android.
Apple nie ma przekonania do chatbotów AI, ale wie, że konsumenci i tak będą za nimi tęsknić. Partnerstwo by to zapewniło – a wszystko to przy jednoczesnym potencjalnym zarobieniu przez Apple dodatkowych pieniędzy.
W świecie generatywnej sztucznej inteligencji istnieje mnóstwo problemów etycznych i związanych z prywatnością. Przekazując tę technologię osobie trzeciej, Apple może ją o wszystko obwiniać i ponosić znacznie mniejszą odpowiedzialność.
Uruchamianie generatywnej sztucznej inteligencji opartej na chmurze jest niezwykle kosztowne i wymaga dużej mocy obliczeniowej. Korzystając z partnera, ktoś inny płaci te ogromne rachunki.
Partnerstwo może pomóc Apple szybciej zintegrować sztuczną inteligencję. Na przykład firma może skorzystać z usług lokalnych dostawców w Chinach, takich jak Baidu Corp., zamiast kontaktować się z organami regulacyjnymi i lokalizować własną technologię.
Podsumowując, w stylu Apple: kilka pieczeni na jednym ogniu.
Niektórzy mają problem, że w ogóle istnieją plusy i lajki.
A ja bym poszedł dalej.
Chip w mózgu, sczytujący co myślisz i czujesz o danym wpisie, i automatycznie dodający reakcję na podstawie twoich myśli i odczuć.
Bo nie każdemu chce się kliknąć lajka, a coś przecież myśli, jak już przeczytał.
A nawet napisanie komentarza przez AI, w oparciu o to co chip sczyta.
AI ubiera odczytane błyski mózgu w słowa. #ai#artificialintelligence#sztucznainteligencja#elonmusk#neuralink#chip#interfejsmozgkomputer#braincomputerinterface#bci
Dzisiaj w sejmie obradowała
podkomisja stała do spraw sztucznej inteligencji i przejrzystości algorytmów: sejm.gov.pl/sejm10.nsf/transmi…
Z dwóch tematów które były omówione to "Prezentacja aktualnego stanu wiedzy na temat sztucznej inteligencji" nie wniosła niczego nowego ponadto co już wiemy, czyli ogólnego entuzjazmu #MinisterCyfryzacji do rozwijania #SztucznaInteligencja .
Natomiast druga , ciekawsza część dyskusji dotyczyła projektu ustawy o zmianie ustawy o związkach zawodowych a konkretnie przepisów dt. jawności algorytmów do zautomatyzowanego podejmowania decyzji przez przedsiębiorców wobec pracowników/kandydatów.
Ten projekt ustawy był procedowany w poprzedniej kadencji ale mimo (podobno...) szerokiego konsensusu, jednak utknął gdzieś na etapie wyjścia z komisji.
Dzisiaj przynajmniej padła deklaracja, że będzie ponownie wniesiony pod obrady sejmu.
Temat zdecydowanie w kręgu zainteresowania m.in. @panoptykon@icd@Watchdog_Polska #sejm#ai#algorytmy#PrawaPracownicze
📺 Podkomisja stała do spraw sztucznej inteligencji i przejrzystości algorytmów
Prezentacja aktualnego stanu wiedzy na temat sztucznej inteligencji
– przedstawiają: #MinisterCyfryzacji oraz Dyrektor Naukowej i Akademickiej Sieci Komputerowej – Państwowego Instytutu Badawczego (#NASK-PIB).
Dyskusja na temat projektu ustawy o zmianie ustawy o związkach zawodowych.
Zespół doradczy ds. sztucznej inteligencji powołany przez lewicowego ministra cyfryzacji i wicepremiera Krzysztofa Gawkowskiego. Brak strony społecznej - tylko biznes https://www.instagram.com/p/C2iMBLiI9XK/
Człowiek, jako korona stworzenia, ma prawo wykorzystywać zwierzęta, np. zjadać je albo orać nimi pole, jak trzeba.
Bo jest koroną stworzenia. Dlatego jest to miłe Bogu.
Gdy wytworzy się AI o odpowiednim poziomie, to z kolei AI będzie koroną stworzenia.
Człowiek stanie się podrzędnym stworzeniem.
AI będzie jadła ludzkie mięso, i będzie to miłe Bogu.
O, a jutro w ramach cyklu o #AI prowadzonego przez Tomasza Rożka z "Nauka. To lubię" odbędzie się rozmowa z Dawidem Myśliwcem z "Uwaga! Naukowy bełkot". Spróbują obaj odpowiedzieć na pytanie, czy #sztucznainteligencja może rozwiązać problem hejtu w Internecie
Czy mowę nienawiści da się zwalczyć za pomocą sztucznej inteligencji i nowych technologii - temu tematowi poświęcony jest najnowszy odcinek Outriders Podcastu
Szykuje się kolejna rozmowa live z serii "Rewolucja AI" - tym razem Mateusz Chrobok i Tomasz Rożek będą się zastanawiać, jak sztuczna inteligencja wpływa na naukę
Jest jakieś oficjalne tłumaczenie na polski (z ang.) "Foundation models" w kontekście AI/AI Act? Funkcjonuje coś takiego jak "model fundacyjny", a może jakoś inaczej się to formalnie tłumaczy?
Skany starych zdjęć, które przetrwały na kliszach (nigdy nie zrobiłem z nich odbitek). Zdjęcia wykonałem podczas wycieczki (chyba był to Leżajsk?) w pierwszej klasie technikum (1991 r.). W oryginale czarno-białe, pokolorowane zostały przez oprogramowanie implementujące algorytmy uczenia maszynowego i uczenia głębokiego, dobrze już na przestrzeni kilku ostatnich lat wytrenowane, popularnie zwane "sztuczną inteligencją".
Sprzęt:
– aparat Zenit TTL z obiektywem "kitowym" (totalnie nie pamiętam szczegółów)
Materiał:
– monochromatyczna klisza małoobrazkowa Fotopan 27DIN (produkcji polskiej, w tamtych czasach to już były ostatki)
Kolory: https://deepai.org/machine-learning-model/colorizer