aitech

This magazine is from a federated server and may be incomplete. Browse more on the original instance.

Per Anthropic, società di intelligenza artificiale sostenuta da Amazon e Google "gli strumenti IA generici non esisterebbero" dovessero pagare le licenze per il materiale di addestramento (www.computerweekly.com) Italian

Anthropic, società di intelligenza artificiale generativa (GenAI), ha affermato a un tribunale statunitense che l’utilizzo di contenuti protetti da copyright nei dati di formazione del modello linguistico di grandi dimensioni (LLM) conta come “fair use”....

Spotify è circondato dalle intelligenze artificiali (www.ilpost.it) Italian

Lo streaming artificiale è in realtà un problema che Spotify e servizi simili conoscono da ben prima che si cominciasse a dibattere più insistentemente di intelligenze artificiali, o che nascessero software che rendessero molto facile creare canzoni. E anche prima che le intelligenze artificiali lo rendessero tanto immediato,...

Nightshade: Protecting Copyright (nightshade.cs.uchicago.edu) Italian

Nel tentativo di risolvere questa asimmetria di potere, abbiamo progettato e implementato Nightshade, uno strumento che trasforma qualsiasi immagine in un campione di dati inadatto all’addestramento dei modelli. Più precisamente, Nightshade trasforma le immagini in campioni “velenosi”, in modo che i modelli che si...

Cos’è tutta questa storia della commissione sull’intelligenza artificiale del governo italiano (www.ilpost.it) Italian

Non è chiaro a molti che cosa sia la commissione sull’intelligenza artificiale del governo italiano, a cui spesso i giornali si riferiscono come “commissione algoritmi”. È istituita dal dipartimento per l’informazione e l’editoria, una struttura che fa riferimento alla presidenza del Consiglio ed è guidata dal...

Intelligenza artificiale, la trasparenza è bassa (Documento di ricerca da ottobre 2023) (crfm.stanford.edu) Italian

Modelli di fondazione come GPT-4 e Llama 2 sono utilizzati da milioni di persone. Mentre l’impatto sociale di questi modelli è in aumento, la trasparenza è in declino. Se questa tendenza continua, i modelli di base potrebbero diventare opachi come le piattaforme di social media e altre tecnologie precedenti, replicando le...

'Microsoft Copilot', il chatbot guidato dall'IA sul motore di ricerca di Microsoft, inventa falsi scandali su politici reali e fabbrica risultati elettorali (algorithmwatch.org) Italian

Un’indagine congiunta di AlgorithmWatch e AI Forensics rivela che Bing Chatbot di Microsoft fabbrica notizie false sulle elezioni negli stati tedeschi di Baviera e Assia e in Svizzera che si sono svolte nell’ottobre 2023. Microsoft sembra non in grado o non disposti a risolvere...

L'IA è pericolosa, ma non per i motivi che pensi: dobbiamo concentrarci sugli attuali impatti negativi - (video/TED talk, 10 min) (yewtu.be) Italian

Invece di distrarsi dai rischi esistenziali futuri, Sasha Luccioni, una ricercatrice nell’ambito dell’etica delle tecnologie e dell’intelligenza artificiale di Hugging Face, pensa che dobbiamo concentrarci sugli attuali impatti negativi della tecnologia, come l’emissione di carbonio, la violazione dei diritti d’autore...

La maggior parte degli inventari di intelligenza artificiale delle agenzie "non sono del tutto completi e accurati", riferisce GAO (fedscoop.com) Italian

Il Government Accountability Office trova “casi di dati incompleti e imprecisi” negli inventari dell’intelligenza artificiale delle agenzie e rivela circa 1.200 usi totali dell’IA segnalati dalle agenzie analizzate

L’accesso aperto ai modelli fondamentali dell’intelligenza artificiale pone vari rischi per la sicurezza e la compliance (cyberscoop.com) Italian

Secondo un nuovo rapporto dell’Institute for Security and Technology, “La sicurezza e la mitigazione dei danni non dovrebbero essere sacrificate esclusivamente in nome di una rapida innovazione”.

Una “global governance” per l’IA: come si stanno riposizionando le grandi potenze (www.agendadigitale.eu) Italian

L’evoluzione dell’IA generativa sollecita una riflessione sulla necessità di una governance globale. Mentre si susseguono alleanze, forum, dicharazioni e codici di condotta, gli Stati si riposizionano in un nuovo ordine internazionale postliberale

Ricerca mostra che ChatGPT rivela dati personali: modelli linguistici sempre più software tradizionali, dobbiamo capire se un sistema di apprendimento automatico può mai essere sicuro (not-just-memorization.github.io) Italian

Un attacante può estrarre in modo efficiente gigabyte di dati di addestramento da modelli linguistici open-source come Pythia o GPT-Neo, modelli semi-aperti come llama o Falcon e modelli chiusi come ChatGPT ( (anche se il rapporto tecnico GPT-4 richiede esplicitamente che sia stato allineato per rendere il modello non emettere...

  • All
  • Subscribed
  • Moderated
  • Favorites
  • aitech@feddit.it
  • mdbf
  • DreamBathrooms
  • InstantRegret
  • magazineikmin
  • Youngstown
  • everett
  • cisconetworking
  • slotface
  • GTA5RPClips
  • rosin
  • thenastyranch
  • kavyap
  • tacticalgear
  • modclub
  • JUstTest
  • osvaldo12
  • Durango
  • khanakhh
  • anitta
  • provamag3
  • ngwrru68w68
  • cubers
  • tester
  • ethstaker
  • megavids
  • normalnudes
  • Leos
  • lostlight
  • All magazines