Microsoft è stata avvertita che potrebbe essere multata molto pesantemente per violazione del DSA con i suoi strumenti di IA generativa
Il blocco avverrebbe ai sensi del Digital Services Act (DSA), dopo che la società non ha risposto a una richiesta di informazioni giuridicamente vincolante (RFI) ) incentrato sui suoi strumenti di intelligenza artificiale generativa
@filippodb@aitech non sarà semplice spodestare Google.
Ha creato un ecosistema che tende a chiuderti al suo interno.
Spero che questa concorrenza possa servire a smuovere un po' l'attuale situazione, ma di certo non mi aspetto rose e fiori.
Per non parlare poi dei problemi etici e che il web così come lo conosciamo potrebbe uscirne stravolto.
Staremo a vedere! 😉
@prealpinux@aitech ma infatti, ormai è impossibile come è impossibile spodestare windows/office, è impossibile proprio perchè ormai hanno soluzioni ben consolidate e integrate con tutto un'ecosistema in cui difficilmente puoi uscire.
Uno dei problemi che gli LLM possono creare nell'ambito di scienza e informazione
Un uomo ha usato la IA per apparire citato migliaia di volte in articoli e pubblicazioni scientifiche. Di conseguenza sembra che lui sia uno dei massimi esperti mondiali quando in realtà non lo è. Già il citation index come parametro non era il massimo prima, adesso è decisamente da buttare
Noyb fa ricorso contro chatgpt perché non è in grado di correggere le "allucinazioni" che ha quando scrive informazioni su una persona
OpenAI sta affrontando un altro reclamo sulla privacy nell'Unione Europea. Questo, che è stato presentato da noyb no-profit per i diritti sulla privacy per conto di un singolo denunciante, mira all'incapacità del suo chatbot AI ChatGPT di correggere la disinformazione che genera sugli individui.
Perché la startup di test del codice Nova AI utilizza LLM open source più di OpenAI
La startup Nova AI, è nata un anno fa, uno spin off della Unusual Academy che ha raccolto un round pre-seed di 1 milione di dollari. Sta tentando di battere i suoi concorrenti con i suoi strumenti di test end-to-end infrangendo molte delle regole della Silicon Valley su come dovrebbero operare le startup, dice a TechCrunch il fondatore e CEO Zach Smith.
Il nuovo regolamento europeo disciplina l’intelligenza artificiale e i diritti e i doveri dei principali player internazionali, con l’obiettivo di creare un quadro normativo armonizzato e proporzionato per l’intelligenza artificiale (IA) nell’Unione Europea.
Quali sono i potenziali rischi e benefici dell'intelligenza artificiale per la democrazia? Come si può realizzare un'AI civica Europea?
Ne parleranno @marcocappato , Giulia Pastorella, Brando Benifei, @quinta ed Elia Bidut, lunedì 15 aprile alle 20 30 al CAM Gabelle, via San Marco 45, Milano.
OpenAI, Google e Meta hanno ignorato le politiche aziendali, modificato le proprie regole e discusso di come aggirare la legge sul copyright per addestrare le loro IA
La corsa per guidare l’intelligenza artificiale è diventata una caccia disperata ai dati digitali necessari per far avanzare la tecnologia. Secondo un’analisi del New York Times, per ottenere tali dati, le aziende tecnologiche hanno violato tutto ciò che potevano violare
@informapirata@aitech lungi da me difendere il copyright, ma se queste aziende la passano liscia, voglio che cambi tutto per permettere anche ai comuni cittadini di farlo.
È già finita l’era dell’intelligenza artificiale open source?
Le aziende vogliono lavorare su modelli addestrati da altri per sviluppare soluzioni chiuse, un po' perché non vogliono che gli oligopolisti si impadroniscano dei propri dati privati, un po' per ragioni di profitto. Ma nessuna azienda ha addestrato i propri modelli su dati prodotti internamente.
Sì, per il funzionamento di queste AI generative di immagini o testi o video occorrono modelli di dati su cui addestrare gli algoritmi, altrimenti queste AI non generano un tubo. Un limite è dato anche dalla potenza dell'hardware delle cpu e soprattutto delle gpu. La tendenza, probabilmente, sarà poi quella di sfruttare l'hw dell'utente nel calcolo distribuito se si vorrà mantenere una Ai open source condivisa.
Per addestrare un algoritmo di AI generativa che possa competere con quelli creati dalle Big Tech quindi servirebbe:
✓ una spesa dell’ordine di 10^8$ (100 milioni di dollari), solo per avere la “materia prima”;
✓ un dataset omnicomprensivo di dimensioni comprese tra 1 e 100 terabyte;
✓un algoritmo con numero di parametri dell’ordine di 10^11 (GPT-3.5) o 10^12 (GPT-4).
Temo quindi che le AI generative opensource fatte in casa siano irrealizzabili. Più semplicemente si usano le API di OpenAI o simili per interfacciarle graficamente e spacciarle come innovazione.
Il fine tuning invece, cioè riadattare un modello pre-esistente per scopi diversi e specifici, è più praticabile e con costi sostenibili.
Facebook è pieno di spazzatura generata dall'intelligenza artificiale e gli anziani vengono ingannati
«Man mano che i contenuti generati dall'intelligenza artificiale proliferano online e ingombrano i feed dei social media , potresti aver notato che spuntano più immagini che invocano l'effetto valle inquietante: scene relativamente normali che contengono anche dettagli surreali come dita in eccesso o parole senza senso.»
@informapirata non so quanto sia volontari ma facebook = anziani fa troppo ridere.
FRa l'altro mastodon.social ha introdotto il divieto di creare account che pubblicano solo o principalmente contenuti AI.
Probabilmente dovremo farlo anche noi visto che l'età avanzata di molti di noi 😂
"Content created by others must be attributed, and use of generative AI must be disclosed
Accounts may not solely post AI-generated content."