Intelligenza Artificiale

0 readers
1 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 1 year ago
MODERATORS
1
 
 

Se l'intelligenza artificiale inizia a cibarsi dei dati che ha prodotto, abbiamo un problema

Cosa succede quando le intelligenze artificiali vengono addestrate con i contenuti che producono? Avviene il model collapse, un rischio per le AI generative

https://www.wired.it/article/intelligenza-artificiale-collasso-modelli-fondativi-rischi/
@aitech

2
 
 

La leadership del Pentagono ha recentemente pubblicato una nuova guida provvisoria per consigliare a tutte le componenti militari e di difesa statunitensi, in corso e imminente, l'adozione di tecnologie emergenti e dirompenti di intelligenza artificiale generativa (Gen AI), hanno riferito fonti a DefenseScoop.

3
 
 

In Cina i paletti normativi applicati all’innovazione tecnologica nel campo dell’AI si rivelano indispensabili per mantenere il controllo politico e il potere. In Europa si procede invece sulla scia del rispetto dei diritti fondamentali, della democrazia e della legalità mentre gli Usa avanzano lungo la linea della minimizzazione dell’interferenza governativa

4
 
 

AI-GAP: bias algoritmici nell'intelligenza artificiale visti da prospettive interdisciplinari

Il convegno si terrà a Pisa il 17 novembre 2023 e all'Aquila dal 20 al 22 novembre 2023

@aitech
https://aigap.di.unipi.it/

5
 
 

La falsa promessa di ChatGPT, di Noam Chomsky, Ian Roberts e Jeffrey Watumull

Una volta, Jorge Luis Borges scrisse che vivere in un epoca di grandi pericoli e promesse è sperimentare insieme la tragedia e la commedia, con “l’imminenza di una rivelazione” nella comprensione di noi stessi e del mondo. In effetti, i nostri odierni presunti progressi rivoluzionari nell’intelligenza artificiale, provocano sia preoccupazione che ottimismo. Ottimismo, perché l’intelligenza è lo strumento per effetto del quale risolviamo i problemi. Preoccupazione, perché abbiamo paura che la più popolare ed alla moda specie di IA – l’apprendimento automatico – umilierà la nostra scienza e degraderà la nostra morale incorporando nella nostra tecnologia una concezione fondamentalmente guasta del linguaggio e della conoscenza.

In breve, ChatGPT ed i suoi compagni sono costituzionalmente incapaci di bilanciare creatività e limiti. Essi o generano in eccesso (producendo sia verità che falsità, sostenendo assieme decisioni etiche o non etiche), oppure generano per difetto (esibendo disimpegno per ogni decisione e indifferenza per le conseguenze). Considerata l’amoralità, la finta scienza e l’incompetenza linguistica di questi sistemi, non si sa se ridere o piangere della loro popolarità.

@aitech

6
7
 
 

Phishing: con ChatGPT gli attacchi sono aumentati del 1.265%

https://www.punto-informatico.it/phishing-chatgpt-attacchi-aumentati-del-1-265/

Secondo SlashNext, ChatGPT ha portato a un aumento esponenziale dei messaggi di phishing. Un modo per difendersi è usare le passkey.

@aitech

8
 
 

DataKnightmare: L'algoritmico è politico 8x08 - SALAMI e copyright

@dataKnightmare parla con @quinta di #IA e diritto d'autore, e di come dietro a tutti i grandi discorsi sulle macchine coscienti ci sia sempre la solita vecchia storia di creare un monopolio per vivere di rendita, a spese di tutti.

@aitech

#DataKnightmare #copyright

https://www.spreaker.com/user/runtime/dk8x08-salami-e-copyright

9
 
 

Pochi mesi dopo il fallito esperimento di Gannett con articoli sportivi basati sull'intelligenza artificiale, i dipendenti affermano che l'azienda sta pubblicando contenuti generati dall'intelligenza artificiale sul suo sito di recensioni di prodotti.

Un'infarinatura di articoli recentemente scoperti su Reviewed , il sito di recensioni dei prodotti di Gannett, sta suscitando un dibattito sempre più comune: è stato realizzato con strumenti di intelligenza artificiale o da un essere umano?

La scrittura è artificiosa, ripetitiva e a volte priva di senso. "Prima di acquistare un prodotto, devi considerare la vestibilità, le impostazioni di luce e le funzionalità aggiuntive offerte da ciascuna opzione", si legge in un articolo intitolato "La migliore lampada da cinta del 2023" . "Prima di acquistare strofinacci svedesi, ci sono alcune domande che potresti porti", dice un altro. In ogni pagina c'è una sezione chiamata "Pro/Contro del prodotto" che, invece di offrire effettivamente vantaggi e svantaggi, ha solo un elenco con una manciata di funzionalità. Le pagine sono caricate con immagini a bassa risoluzione, infografiche e dozzine di collegamenti a elenchi di prodotti Amazon. (Al momento in cui scrivo, gli articoli sembrano essere stati cancellati.)

10
 
 

La partnership di Microsoft con OpenAI potrebbe significare miliardi di dollari all’anno in nuove entrate man mano che i carichi di lavoro si accumulano in Azure. L’investimento, che recentemente valuta OpenAI a 29 miliardi di dollari, è complicato dato il modello di “profitto limitato” dell’azienda Microsoft sta integrando la tecnologia nel suo motore di ricerca Bing, nel software di vendita e marketing, negli strumenti di codifica GitHub, nel pacchetto di produttività Microsoft 365 e nel cloud di Azure.

11
 
 

Oggi Anthropic, Google, Microsoft e OpenAI annunciano la scelta di Chris Meserole come primo direttore esecutivo del Frontier Model Forum e la creazione di un nuovo AI Safety Fund, un'iniziativa da oltre 10 milioni di dollari per promuovere la ricerca nel campo della sicurezza dell'IA. Il Frontier Model Forum, un organismo del settore incentrato sulla garanzia di uno sviluppo sicuro e responsabile dei modelli di IA di frontiera, pubblica anche il primo aggiornamento del gruppo di lavoro tecnico sul red teaming per condividere l'esperienza del settore con un pubblico più ampio, mentre il Forum amplia la conversazione sugli approcci di governance dell'IA responsabile.

Chris Meserole arriva al Frontier Model Forum con una profonda esperienza in materia di politica tecnologica, avendo lavorato a lungo sulla governance e sulla sicurezza delle tecnologie emergenti e delle loro applicazioni future. Recentemente è stato direttore dell'Iniziativa sull'intelligenza artificiale e le tecnologie emergenti presso la Brookings Institution.

In questo nuovo ruolo, Meserole sarà responsabile di aiutare il Forum ad adempiere alla sua missione di (i) far progredire la ricerca sulla sicurezza dell'IA per promuovere uno sviluppo responsabile dei modelli di frontiera e ridurre al minimo i rischi potenziali, (ii) identificare le migliori pratiche di sicurezza per i modelli di frontiera, (iii) condividere le conoscenze con i responsabili politici, gli accademici, la società civile e altri soggetti per far progredire lo sviluppo responsabile dell'IA e (iv) sostenere gli sforzi per sfruttare l'IA per affrontare le maggiori sfide della società.

Nel corso dell'ultimo anno, l'industria ha fatto registrare progressi significativi nelle capacità dell'IA. L'accelerazione di questi progressi ha reso necessaria una nuova ricerca accademica sulla sicurezza dell'IA. Per colmare questa lacuna, il Forum e i partner filantropici stanno creando un nuovo AI Safety Fund, che sosterrà ricercatori indipendenti di tutto il mondo affiliati a istituzioni accademiche, istituti di ricerca e startup. L'impegno iniziale di finanziamento per l'AI Safety Fund proviene da Anthropic, Google, Microsoft e OpenAI e dalla generosità dei nostri partner filantropici, la Patrick J. McGovern Foundation, la David and Lucile Packard Foundation, Eric Schmidt e Jaan Tallinn. L'insieme di queste risorse ammonta a oltre 10 milioni di dollari di finanziamento iniziale. Siamo in attesa di ulteriori contributi da parte di altri partner.*

All'inizio di quest'anno, i membri del Forum hanno sottoscritto alla Casa Bianca degli impegni volontari in materia di IA, tra cui l'impegno a facilitare la scoperta e la segnalazione da parte di terzi delle vulnerabilità dei nostri sistemi di IA. Il Forum considera il Fondo per la sicurezza dell'IA come una parte importante dell'adempimento di questo impegno, fornendo alla comunità esterna finanziamenti per valutare e comprendere meglio i sistemi di frontiera. La discussione globale sulla sicurezza dell'IA e la base di conoscenze generali sull'IA beneficeranno di una gamma più ampia di voci e prospettive.

12
 
 

Il grande rischio dietro il boom degli investimenti nell’intelligenza artificiale

I venture capitalist stanno versando ingenti somme di denaro nelle startup di intelligenza artificiale, con una ponderazione del dollaro verso quelle che costruiscono modelli fondamentali

Le cause legali intentate dai titolari del diritto d'autore potrebbero esporre le strutture dei costi delle aziende che hanno raccolto miliardi di dollari

@aitech

https://www.axios.com/2023/10/23/venture-capital-ai-risk-investment

13
 
 

Il Foundation Model Transparency Index di Stanford tiene traccia della quantità di informazioni che le aziende divulgano sui loro modelli di intelligenza artificiale.

14
 
 

🤖 Le IA sono piene di stereotipi

https://restofworld.org/2023/ai-image-stereotypes/

@aitech

15
16
 
 

Un'introduzione filosofica all'intelligenza artificiale: cosa sta succedendo alla realtà? Quali cambiamenti stanno avvenendo che stanno sovvertendo il concetto di realtà?

Il post di Maria Laura Mantovani cerca di presentare alcuni concetti iniziali per poter avviare un ragionamento sull'inesorabile cambiamento in atto.

@aitech

https://t.me/lallamantovani/7453

17
1
submitted 11 months ago* (last edited 11 months ago) by ekZeno@feddit.it to c/aitech@feddit.it
 
 

Microsoft 365 Copilot è un nuovo strumento di produttività che utilizza l'intelligenza artificiale per aiutare gli utenti a creare documenti, presentazioni, codici e altro ancora. Copilot è ancora in fase di sviluppo, ma ha il potenziale per essere un potente strumento per gli utenti di tutti i livelli di abilità.

18
 
 

Questa implementazione di llama è molto veloce anche con la sola CPU

19
 
 

IsitAI - E' un comodo strumento online per rilevare contenuti generati dalle AI. Lo strumento Image Detector funziona particolarmente bene con foto AI, ma da risultati misti con grafiche e disegni.

Un'altro strumento che invece da buoni risultati su disegni e grafiche è illuminarty.

20
21
 
 

Che fa il giornalismo con la IA: un manifesto per il giornalismo centrato sulla comunità e i dilemmi etici nella ricerca open source

@aitech

In questo 2° sondaggio globale di #JournalismAI, più di 120 redattori, giornalisti, esperti di tecnologia e media maker provenienti da 105 piccole e grandi redazioni in 46 paesi condividono le loro conoscenze sull'uso dell'intelligenza artificiale e della #genAI. Il rapporto affronta la qualità e la sostenibilità del giornalismo

https://www.journalismai.info/research/2023-generating-change

22
23
 
 
24
 
 

Anguilla: l'isola caraibica che guadagna grazie all'intelligenza artificiale

https://www.wired.it/article/intelligenza-artificiale-anguilla-ai-dominio-web/

Anguilla, territorio britannico nel mar dei Caraibi, prospera grazie al dominio nazionale .ai. Ideale per le startup di intelligenza artificiale

@aitech

25
 
 
git clone https://github.com/ParisNeo/lollms-webui.git
cd lollms-webui/
chmod +x webui.sh
./webui.sh

view more: next ›