fbpx

Voxel Informatica s.a.s.

L’AI nella Cybersecurity

Le aziende che adottano la tecnologia stanno preparando il terreno per un futuro brillante in un mondo che cambia a un ritmo accelerato. Settori come l’intrattenimento, i nuovi prodotti e gli affari sono stati rivoluzionati dalla digitalizzazione. In questo contesto, i fornitori di servizi, equipaggiati con gli strumenti necessari, possono soddisfare immediatamente le richieste dei clienti.

Tuttavia, l’era digitale presenta anche numerosi svantaggi. Tra i rischi maggiori vi è la possibilità di perdere i propri dati personali. Negli ultimi dieci anni, i casi di furto d’identità, violazione dei dati e perdite finanziarie sono aumentati esponenzialmente. I cyberattacchi sono pervasivi e colpiscono individui, aziende e nazioni. Gli attori delle minacce possono operare da qualsiasi luogo del mondo, rendendo essenziale per le aziende migliorare costantemente la propria postura di sicurezza informatica.

Il Duplice Impatto dell’Intelligenza Artificiale sulla Sicurezza Aziendale

L’intelligenza artificiale (IA) ha non solo migliorato la cybersicurezza, ma ha anche rivoluzionato la fornitura di servizi. Si stima che il 15% delle aziende a livello mondiale abbia incorporato l’IA nei propri processi. Tuttavia, l’adozione di queste tecnologie può portare con sé sia vantaggi sia rischi. Gli hacker possono sfruttare la stessa tecnologia usata per proteggere le aziende se queste ultime non adottano misure di sicurezza adeguate.

Importanza di un Aggiornamento Costante

Per mantenere la sicurezza aziendale, è cruciale aggiornare regolarmente le soluzioni di sicurezza basate sull’IA. Le aziende devono implementare segnali codificati unici che le tecnologie AI possano interpretare come minacce. Una valutazione regolare del rischio di cybersecurity aiuta a mantenere i sistemi di intelligenza artificiale sempre pronti. In caso di attacco, è fondamentale analizzare come gli hacker abbiano avuto accesso ai sistemi e creare rilevamenti per bloccare future intrusioni simili.

La Sfida della Sicurezza Machine-to-Machine

In un contesto aziendale sempre più automatizzato, le interazioni machine-to-machine riducono la necessità di intervento umano, ma amplificano anche i rischi. Un virus che si diffonde in una rete automatizzata può causare danni rapidamente, sottolineando l’importanza di un controllo rigoroso dell’accesso ai sistemi informatici.

L’Evoluzione degli Attacchi Informatici

Gli attacchi informatici sono diventati sempre più organizzati e metodici. Gli hacker cercano continuamente di aggirare le misure di sicurezza più efficaci. Le loro imprese criminali, spesso ben finanziate, sono dotate di risorse significative e strutture organizzative avanzate. Questo rende l’automazione delle difese aziendali non solo un vantaggio, ma una necessità.

Migliorare la Sicurezza Informatica con l’IA

L’intelligenza artificiale è essenziale nel rafforzamento della cybersecurity. I sistemi AI sono in grado di rilevare attività sospette e limitare l’accesso fino all’autorizzazione. Basati sul Machine Learning, questi sistemi apprendono dai dati storici per distinguere tra accessi legittimi e fraudolenti. La precisione e la velocità con cui l’IA identifica le minacce superano di gran lunga le capacità umane, prevenendo attacchi che potrebbero costare milioni alle aziende.

Operazioni di Intelligenza Artificiale

I sistemi di IA utilizzano reti di computer addestrate per identificare e prevenire le minacce. Sebbene l’IA operi per lo più autonomamente, può ricevere indicazioni per la valutazione e la classificazione dei rischi. Questo approccio permette di prendere decisioni informate e potenziare le capacità dell’IA contro minacce come ransomware e malware.

Vantaggi dell’IA nella Cybersecurity

L’IA offre molteplici vantaggi nel campo della cybersecurity:

  • Rilevamento delle Minacce: L’IA può riconoscere nuove minacce e attività dannose, rilevando modelli sospetti e attacchi prima che si infiltrino nei sistemi.
  • Gestione dei Bot: L’IA distingue tra bot legittimi e maligni, migliorando la sicurezza del traffico web.
  • Valutazione del Rischio: L’IA aiuta a creare registri degli utenti e delle applicazioni, anticipando i rischi e distribuendo le risorse in modo strategico.
  • Protezione degli Endpoint: L’IA stabilisce un comportamento di base per ogni dispositivo, offrendo una protezione maggiore rispetto ai tradizionali software antivirus.
  • Rilevamento del Phishing: L’IA identifica e monitora i siti di phishing, permettendo risposte rapide e prevenendo accessi non autorizzati.

Conclusione

In conclusione, l’intelligenza artificiale ha trasformato significativamente la cybersecurity, migliorando le difese aziendali e rendendo più efficienti le operazioni quotidiane. Tuttavia, i progressi tecnologici hanno anche dato agli hacker strumenti più sofisticati per colpire le aziende. Per prevenire le crisi e migliorare la resilienza, l’IA è diventata indispensabile nel monitoraggio e nel rilevamento delle minacce, guidando le risposte agli incidenti e rafforzando la sicurezza delle organizzazioni. Nonostante alcune sfide, l’IA rappresenta un elemento chiave per il futuro della cybersecurity.

Apple Intelligence

Apple ha finalmente fatto il grande salto nell’intelligenza artificiale, annunciando la sua nuova soluzione chiamata Apple Intelligence. Questa tecnologia rivoluzionaria si distingue per la sua profonda integrazione nei sistemi operativi e nelle app Apple, con la capacità di elaborare molte richieste direttamente sul dispositivo. Vediamo nel dettaglio di cosa si tratta.

Comprensione del Linguaggio Naturale e Strumenti di Scrittura

Apple Intelligence sarà in grado di comprendere il linguaggio naturale e offrirà una serie di strumenti di scrittura a livello di sistema. Gli utenti potranno interagire con applicazioni come Mail, Notes, Safari, Pages, Keynote e app di terze parti, facilitando la scrittura e la rielaborazione dei testi. Ma non si tratta solo di testo: la tecnologia sarà in grado di comprendere immagini, azioni e operazioni legate al contesto personale dell’utente.

Creazione di Contenuti e Immagini Personalizzate

Immaginate di voler creare un’immagine per augurare buon compleanno a un amico: basterà descrivere l’immagine desiderata e Apple Intelligence farà il resto, tutto senza uscire da iMessage. Una delle funzioni più interessanti è Genmoji, che permetterà di generare emoji personalizzati.

Funzionalità Avanzate e Comprensione del Codice

Apple Intelligence potrà anche compiere azioni complesse, come la comprensione di linguaggi di programmazione su Mac. Uno dei suoi punti di forza è l’accesso alle informazioni personali e al contesto, ovvero ciò che appare sul display del dispositivo. Importante sottolineare che i dati non verranno condivisi né elaborati in cloud, ma rimarranno al sicuro all’interno del dispositivo.

Siri e Digitazione Assistita

Un’altra novità è la possibilità di digitare su Siri: basterà toccare due volte nella parte inferiore dello schermo per visualizzare una tastiera, gestibile anche con la voce. Siri sarà in grado di trovare foto, estrarre dati e inserirli in moduli automaticamente. Inoltre, Siri guadagnerà nuove funzionalità e capacità di interazione con le applicazioni grazie a nuove API e framework a disposizione degli sviluppatori.

Integrazione con Mail e ChatGPT

Apple Intelligence offrirà una grande integrazione con Mail, permettendo di identificare contenuti, scrivere risposte automatiche, elaborare riepiloghi e molto altro, migliorando notevolmente la produttività. Sarà anche possibile integrare modelli esterni, inclusa l’esperienza con ChatGPT alimentata da GPT-4, integrato in Siri. Gli utenti potranno accedere a ChatGPT gratuitamente senza creare un account, e le richieste non verranno registrate. Gli abbonati a ChatGPT potranno usufruire delle funzionalità a pagamento all’interno delle esperienze.

Disponibilità e Compatibilità

Apple Intelligence sarà disponibile su iOS 18, iPadOS 18 e macOS Sequoia. Sarà supportata da iPhone 15 Pro, iPad e Mac con chip M1 e versioni successive. Il lancio in lingua inglese americana è previsto per quest’estate, mentre la versione beta sarà disponibile questo autunno come parte di iOS 18, iPadOS 18 e macOS Sequoia. Altre lingue e piattaforme seguiranno entro la fine dell’anno.

Apple Intelligence rappresenta un passo avanti significativo per Apple, offrendo un’esperienza utente più integrata e sicura grazie all’elaborazione locale delle informazioni. Siamo entusiasti di vedere come questa nuova tecnologia trasformerà il modo in cui utilizziamo i dispositivi Apple.

Integrazione IA su Firefox

Mozilla, seguendo l’esempio di molte altre aziende tecnologiche, sta integrando l’intelligenza artificiale nel suo browser Firefox per migliorare l’accessibilità.

Didascalie Generate dall’IA per le Immagini su Firefox

In un recente post su Mozilla Hacks, Tarek ZIade ha illustrato come Firefox utilizzerà l’IA per generare didascalie di immagini, migliorando l’accessibilità per chi si affida a tecnologie assistive. Le didascalie, o “testo alternativo”, forniscono il contesto necessario ai lettori, ma spesso vengono trascurate, lasciando quasi la metà delle immagini senza descrizioni adeguate. Grazie ai recenti progressi dell’IA, è ora possibile eseguire modelli di apprendimento automatico locali per generare automaticamente queste didascalie, senza inviare informazioni sensibili ai server.

Novità nella Release 130 di Firefox

La release 130 di Firefox, disponibile nel Nightly Channel, introdurrà una nuova funzionalità per l’editor PDF che utilizza piccoli modelli di apprendimento automatico basati su Transformer per generare testo alternativo. Mozilla assicura che questa funzione non richiederà un uso intensivo delle risorse, rendendola accessibile anche sui dispositivi meno potenti.

Efficienza e Privacy con Modelli Locali

I modelli di apprendimento automatico utilizzati possono generare testo alternativo con oltre 200 milioni di parametri, occupando meno di 200 MB di spazio su disco e producendo risultati in pochi secondi. L’uso di modelli locali presenta diversi vantaggi, tra cui una migliore privacy, efficienza delle risorse, maggiore trasparenza, minori emissioni di CO2 e aggiornamenti frequenti con continui miglioramenti.

Conclusione

L’integrazione dell’IA in Firefox per generare didascalie di immagini rappresenta un significativo passo avanti nell’accessibilità del web. Mozilla continua a dimostrare il suo impegno nel migliorare l’esperienza degli utenti, rendendo il web più inclusivo per tutti.

ChatGPT-5 all’Orizzonte

Nel dinamico mondo dell’informatica, le innovazioni non smettono mai di sorprenderci. Recentemente, l’attenzione del settore si è concentrata sull’annuncio della prossima versione del modello di linguaggio di OpenAI: ChatGPT-5. Dopo il successo delle precedenti iterazioni, ChatGPT-5 promette di ridefinire ulteriormente le capacità dell’intelligenza artificiale generativa, portando con sé una serie di miglioramenti e nuove funzionalità.

L’Evoluzione di ChatGPT

La serie di modelli ChatGPT ha visto una crescita esponenziale in termini di capacità e applicazioni. ChatGPT-3 ha rappresentato un punto di svolta, dimostrando la capacità di generare testo coerente e contestualmente rilevante su una vasta gamma di argomenti. Con ChatGPT-4, abbiamo assistito a un ulteriore salto di qualità, con un aumento della complessità delle conversazioni che l’IA è in grado di gestire, una comprensione più profonda del contesto e una maggiore capacità di gestire compiti specifici.

Novità di ChatGPT-5

Con l’annuncio di ChatGPT-5, OpenAI ha rivelato alcune delle caratteristiche chiave che possiamo aspettarci:

  1. Comprensione Contestuale Avanzata: ChatGPT-5 promette una comprensione contestuale ancora più raffinata, riducendo ulteriormente il rischio di risposte fuori luogo e migliorando la coerenza delle conversazioni.
  2. Miglioramento della Personalizzazione: Una delle principali richieste degli utenti era la capacità di personalizzare il comportamento e il tono del modello. ChatGPT-5 risponde a questa esigenza con strumenti di personalizzazione più avanzati, permettendo agli utenti di adattare l’IA ai loro specifici bisogni e preferenze.
  3. Efficienza Energetica: In un’era in cui la sostenibilità è fondamentale, ChatGPT-5 è stato sviluppato con un occhio di riguardo all’efficienza energetica. Questo non solo riduce l’impronta ecologica del modello, ma permette anche una maggiore accessibilità in termini di costi operativi.
  4. Integrazione Multimodale: Un’altra caratteristica innovativa è l’integrazione multimodale, che permette a ChatGPT-5 di elaborare e generare non solo testo, ma anche immagini e suoni. Questo amplia enormemente le applicazioni del modello, rendendolo uno strumento versatile per creatori di contenuti, sviluppatori e ricercatori.

Implicazioni e Futuro

L’introduzione di ChatGPT-5 non è solo un traguardo tecnologico, ma anche un indicatore delle potenzialità future dell’intelligenza artificiale. Con modelli sempre più sofisticati, le applicazioni dell’IA stanno espandendosi in settori come l’assistenza sanitaria, l’educazione, il customer service e la creazione di contenuti. Tuttavia, con grandi potenzialità derivano anche grandi responsabilità. È fondamentale che lo sviluppo di queste tecnologie sia accompagnato da un forte impegno etico, garantendo che l’IA venga utilizzata in modo equo e responsabile.

Conclusione

ChatGPT-5 rappresenta un nuovo entusiasmante capitolo nell’evoluzione dell’intelligenza artificiale generativa. Con le sue innovazioni, potrebbe ridefinire il modo in cui interagiamo con le macchine, rendendo l’IA una presenza sempre più integrata e utile nella nostra vita quotidiana. Non resta che attendere il suo rilascio per esplorare appieno le sue potenzialità e vedere come trasformerà il panorama tecnologico.

Google I/O 2024: Novità AI Gemini

Guardando le gradinate affollate dell’anfiteatro Shoreline, a pochi passi dal campus di Google, Sundar Pichai ha scherzato: “Oggi abbiamo pronunciato la parola AI circa 120 volte. Credo si tratti di un record”.

Il pubblico ha riso di gusto, poiché il calcolo era stato effettuato da un’intelligenza artificiale che aveva analizzato tutti i discorsi dei relatori di Google I/O, la conferenza annuale che il colosso tech fondato nel 1998 da Sergey Brin e Larry Page dedica agli sviluppatori.

L’ironia di Pichai, amministratore delegato di Google e Alphabet, ha chiuso un’edizione dominata da una tecnologia che è letteralmente sulla bocca di tutti e in ogni prodotto che Google sta sviluppando. A partire dai modelli di IA creati da Google DeepMind, che sono il vero “motore” dell’intelligenza artificiale targata Google. Gemini Nano, Gemini Pro, Gemini Pro 1.5 e Gemini Ultra, annunciati nei mesi scorsi, rappresentano l’intelligenza artificiale più avanzata prodotta finora dal laboratorio di Google DeepMind.

Durante Google I/O è stato annunciato anche un nuovo modello, Gemini 1.5 Flash, da Demis Hassabis, CEO di Google DeepMind e pioniere dell’intelligenza artificiale generativa. Sebbene sia un modello più leggero rispetto a Gemini 1.5 Pro, Gemini 1.5 Flash offre comunque performance notevoli in termini di “ragionamento multimodale su grandi quantità di informazioni”. Un’IA “multimodale”, infatti, è capace di gestire diversi input – audio, testo, immagini e video – e di generare contenuti altrettanto diversificati.

“Gemini 1.5 Flash eccelle nei riassunti, nelle conversazioni con gli utenti, nella descrizione di immagini e video, nell’estrazione di dati da documenti lunghi e tabelle, e molto altro”, ha spiegato Hassabis. Ci riesce grazie a un processo chiamato “distillazione”, in cui “le conoscenze e le abilità più importanti di un modello più grande vengono trasferite a un modello più piccolo ed efficiente”.

I modelli di IA targati Gemini sono alla base anche del nuovo “Project Astra”. Demis Hassabis ha svelato il progetto attraverso un video che ha strappato diversi applausi al pubblico di Google I/O, soprattutto quando l’IA ha aiutato una ragazza a ritrovare un oggetto smarrito.

“Dove ho dimenticato i miei occhiali?”. “Sono lì, sulla scrivania, accanto alla mela rossa”.

Questa conversazione, tipicamente umana, si è svolta tra una persona e un’intelligenza artificiale. Gli occhiali da vista appartenevano a una ricercatrice di Google DeepMind, mentre la voce sintetica che ha suggerito dove cercare l’oggetto smarrito apparteneva a Gemini.

Prima di individuare gli occhiali, Gemini aveva riconosciuto, “guardando” fuori dalla finestra, il quartiere di Londra in cui si trovava. Aveva decifrato alcune linee di codice di programmazione presenti sul monitor di un computer, spiegando “a voce alta” quale fosse la loro natura e il loro compito.

Tutto ciò è stato possibile grazie alla capacità dell’intelligenza artificiale di analizzare un flusso di immagini in diretta. La fotocamera dello smartphone della ricercatrice ha permesso a Gemini di “vedere”. Uno dei modelli sviluppati recentemente da Google DeepMind – Gemini Nano, Pro e Ultra – ha consentito all’IA di esprimersi con un linguaggio naturale e fluente, un’abilità che fino a poco tempo fa era esclusiva degli esseri umani.

L’esempio degli occhiali smarriti aiuta a comprendere il futuro che ci attende. Un futuro che si è materializzato davanti agli occhi di 5mila persone accorse a Mountain View, la città della Silicon Valley che ospita il quartier generale di Google e che, per un giorno, è diventata il centro del mondo dell’intelligenza artificiale.

Google ha di fatto annunciato l’epoca degli “AI Agent”, i prossimi assistenti virtuali dotati di IA a cui Sundar Pichai ha riservato una parte del suo discorso. “Sono sistemi intelligenti capaci di ragionare, pianificare, memorizzare e risolvere problemi – ha detto Pichai – per fare qualcosa al posto vostro ma comunque sempre sotto la vostra supervisione”.

Pichai ha mostrato, per esempio, quanto possa essere utile un “AI Agent” quando si deve restituire un paio di scarpe acquistate online, ma di un numero sbagliato. Tutte le operazioni noiose e laboriose che si fanno in questi casi – generare un’etichetta di reso e prendere un appuntamento con un corriere – l’IA potrà farle da sola.

“Ma questo richiede comunque la vostra supervisione” ha raccomandato Pichai, anticipando le preoccupazioni su quali potrebbero essere gli effetti indesiderati di un futuro in cui alcune decisioni che spettano agli esseri umani saranno delegate alle macchine.

Gli agenti dotati di IA rappresentano un significativo passo in avanti rispetto ad assistenti virtuali come Alexa, Siri o Google Assistant, programmati per comprendere il linguaggio naturale ma solo al fine di rispondere a domande specifiche e compiere azioni determinate.

Con gli assistenti che abbiamo utilizzato finora, insomma, non era possibile conversare veramente. Per tre motivi: il tempo di risposta è molto elevato, la loro “memoria” è inesistente e nessuno di loro può guardare il mondo. Ora tutto questo sta per cambiare. Non è solo un annuncio, o uno scenario frutto di un video editato per accrescere le capacità dell’intelligenza artificiale. Google ha fatto questo errore a dicembre scorso, quando ha presentato Gemini con un video che poi si è rivelato fake, poiché le risposte dell’IA erano state accelerate. Ma stavolta parliamo di una “magia” che avviene davvero, e soprattutto in tempo reale.

Per raccontarla al meglio, Google nella sua demo si è lasciata sfuggire un dettaglio curioso, che ha subito alimentato speculazioni. Gli occhiali protagonisti del video girato da Google DeepMind, infatti, non sono occhiali qualsiasi: hanno videocamere, microfono e speaker integrati, che permettono a chi li indossa di interagire con l’IA tenendo le mani libere.

Si tratta di un dispositivo simile ai Ray-Ban prodotti da Luxottica in collaborazione con Meta, attraverso cui accedere alla Meta AI che fornisce informazioni in tempo reale – ma con tempi di risposta decisamente superiori a quelli di Gemini – su ciò che entra nella visuale di chi indossa gli occhiali smart.

Notando il clamore suscitato dagli occhiali, Google si è trovata costretta a diffondere una precisazione: “Gli occhiali mostrati sono un prototipo di ricerca funzionante sviluppato dal nostro team AR. Al momento non abbiamo informazioni da condividere riguardo a un eventuale lancio sul mercato. Guardando al futuro, prevediamo che le funzionalità dimostrate con Project Astra possano essere utilizzate attraverso dispositivi indossabili e altre tecnologie di generazione futura”.

“È facile immaginare un futuro in cui puoi avere un assistente esperto al tuo fianco tramite il tuo telefono o gli occhiali – ha detto Demis Hassabis al pubblico di Google I/O -. Alcune di queste funzionalità arriveranno sui prodotti Google, come l’app Gemini, entro la fine dell’anno”.

Hassabis ha poi spiegato più nel dettaglio il senso di “Project Astra”. “Per essere davvero utili, gli agenti virtuali devono capire e rispondere al mondo complesso e dinamico proprio come le persone – ha detto Hassabis – devono assimilare e ricordare ciò che vedono e sentono per comprendere il contesto e agire di conseguenza. Devono inoltre essere proattivi, personalizzabili e istruibili, in modo che gli utenti possano interagire con loro in modo naturale e senza ritardi”.

“Sebbene abbiamo fatto progressi incredibili nello sviluppo di sistemi di intelligenza artificiale in grado di comprendere informazioni multimodali (audio e video), ridurre il tempo di risposta a un livello colloquiale è una sfida ingegneristica difficile. Negli ultimi anni, abbiamo lavorato per migliorare il modo in cui i nostri modelli percepiscono, ragionano e conversano per rendere il ritmo e la qualità dell’interazione più naturali. Questi agenti sono stati costruiti utilizzando il nostro modello Gemini e altri modelli creati specificamente per elaborare le informazioni più velocemente, codificando continuamente i fotogrammi video, combinando l’input video e vocale in una cronologia degli eventi e memorizzando queste informazioni per un richiamo efficiente”.

Sul palco del Google I/O, Hassabis ha trovato il tempo di annunciare due nuovi modelli di IA generativa. Il primo si chiama Veo ed è un modello che genera video di alta qualità a partire da un testo, con risoluzione 1080p e durata oltre il minuto. “Veo offre un livello di controllo creativo senza precedenti – ha detto Hassabis – e riesce a comprendere termini come “timelapse” o “riprese aeree di un paesaggio”.

Il secondo modello annunciato dal CEO di Google DeepMind è un aggiornamento di un’IA già esistente: Imagen 3, l’IA capace di generare immagini realistiche. Imagen 3 prende il posto di Imagen 2, il vecchio modello finito qualche tempo fa al centro delle critiche per la sua tendenza a rappresentare, nelle immagini che produceva, un’umanità fin troppo diversificata (nazisti e vichinghi neri, per esempio).

Entrambi i modelli di IA per la generazione di video e immagini annunciati a Google I/O non saranno immediatamente disponibili in Europa e dunque in Italia.

OpenAI introduce GPT-4o

OpenAI ha mantenuto le sue promesse, presentando il nuovo modello GPT-4o, che sarà disponibile gratuitamente per tutti gli utenti registrati. Durante un evento in streaming, sono state annunciate numerose novità che saranno presto accessibili al pubblico. Il nuovo modello, dove la “o” sta per “omni” per il suo approccio a 360 gradi, offre miglioramenti significativi rispetto a GPT-4 Turbo. Tra le nuove funzionalità spiccano le conversazioni in tempo reale, modalità audio e video, e chatbot emozionali in grado di rilevare e interpretare le espressioni facciali umane. Inoltre, è in arrivo un’app ChatGPT dedicata ai Mac.

Le dichiarazioni di Sam Altman

Il CEO di OpenAI, Sam Altman, aveva già anticipato in mattinata che gli aggiornamenti non avrebbero riguardato né GPT-5 né un motore di ricerca sviluppato da OpenAI. “Abbiamo lavorato sodo su alcune novità che pensiamo piaceranno molto alla gente. Mi sembra una magia,” ha scritto Altman. L’evento, che si è tenuto alle 19:00 italiane, è andato in scena un giorno prima della conferenza Google I/O di Mountain View. La replica dell’evento è disponibile sul sito di OpenAI e su YouTube.

Le novità di GPT-4o

GPT-4o introduce la capacità di interpretare le espressioni facciali attraverso le fotocamere degli smartphone, permettendo al modello di rilevare le emozioni e modulare il tono e le risposte di conseguenza, eventualmente aggiungendo effetti sonori e risate. Inoltre, il modello può generare risposte vocali in tempo reale con un tempo di risposta di 320 millisecondi, paragonabile a quello umano, superando di gran lunga i modelli precedenti. Queste caratteristiche fanno pensare subito al film “Her”.

“Dato che GPT-4o è il nostro primo modello che combina tutte queste modalità, stiamo ancora solo esplorando la superficie di ciò che il modello può fare e dei suoi limiti,” hanno affermato i dirigenti di OpenAI durante la presentazione. Il modello è anche molto efficace nelle traduzioni, supportando 50 lingue e coprendo il 97% della popolazione globale. GPT-4o sarà disponibile anche come servizio tramite API, e dopo un primo lancio per utenti a pagamento, sarà accessibile anche per gli utenti free. Questi ultimi potranno sfruttare funzionalità come la navigazione web, l’analisi dei dati, l’accesso al GPT Store e le funzioni di memoria, precedentemente riservate agli abbonati.

Nuova app desktop per Mac

OpenAI ha anche presentato un’app desktop per Mac che permette di utilizzare ChatGPT per varie funzioni, come chiedere cosa sia visualizzato sul display. L’app può essere richiamata con la scorciatoia Option + barra spaziatrice e riconosce elementi, scritte e immagini. Sarà disponibile gratuitamente, ma inizialmente solo per gli abbonati, che potranno utilizzarla in anteprima.

Verso un motore di ricerca AI?

Per ora, non è ancora il momento di un motore di ricerca basato su ChatGPT in grado di competere con Google. Tuttavia, sembra che uno strumento del genere sia in fase di sviluppo e potrebbe essere lanciato presto, sfruttando l’intelligenza artificiale per trovare, analizzare e visualizzare materiali di terze parti, rispondendo in modo più accurato alle richieste degli utenti.

Domani sarà il turno di Google I/O, dove il gigante delle ricerche online presenterà i suoi nuovi prodotti e soluzioni basati sull’intelligenza artificiale. Restate sintonizzati per ulteriori aggiornamenti!

AI su Safari 18

Secondo quanto riportato da Mark Gurman di Bloomberg, Apple presenterà una serie di interessanti novità riguardanti le app integrate in iOS 18 durante la WWDC 2024, che si terrà dal 10 al 14 giugno. Tra queste, particolare attenzione verrà data anche all’aggiornamento del browser di Apple, Safari 18, il quale includerà una nuova funzionalità basata sull’intelligenza artificiale generativa.

Una delle caratteristiche più significative di Safari 18 sarà la “Intelligent Search”. Questa nuova funzionalità, disponibile sia su iOS 18 che su macOS 15, si integrerà attraverso un nuovo menu nella barra degli indirizzi. Sfruttando il modello Ajax, gli utenti potranno interrogare la pagina web per ottenere informazioni specifiche e generare un riassunto del contenuto.

Un’altra funzionalità in fase di test è il “Web Eraser”. Questa opzione permetterà agli utenti di eliminare parti specifiche di una pagina web, come immagini, testo e banner pubblicitari, in modo persistente. Safari conserverà le modifiche anche dopo la chiusura della scheda o del browser, avvertendo gli utenti al ritorno sulla pagina modificata e offrendo la possibilità di ripristinare l’aspetto originale.

Inoltre, Safari 18 presenterà un’interfaccia utente aggiornata per semplificare l’accesso alle varie opzioni, con un design uniforme sia su macOS che su iPadOS. Si prevede che tutte queste novità verranno illustrate nel dettaglio durante la conferenza di giugno.

Apple ha anche avviato lo sviluppo di altre funzionalità basate sull’intelligenza artificiale che potrebbero essere rilasciate nel corso del 2025. Tra queste, una simile a “Visual Look Up” dell’app Foto, chiamata “Visual Search”, che consentirà agli utenti di ottenere informazioni sulle immagini visualizzate direttamente in Safari.

La Nuova Legge sull’Intelligenza Artificiale in Italia: Focus su Privacy e Cybersecurity

Il Consiglio dei Ministri italiano ha recentemente approvato uno schema di disegno di legge sull’intelligenza artificiale (IA), evidenziando l’importanza di bilanciare le opportunità delle nuove tecnologie con i rischi legati al loro uso improprio. Tra gli aspetti trattati nei 26 articoli del disegno di legge, vi sono le disposizioni riguardanti la privacy e la cybersecurity, in linea con il GDPR europeo e con l’obiettivo di garantire un trattamento trasparente e lecito dei dati personali.

Il disegno di legge stabilisce che l’utilizzo dei sistemi di intelligenza artificiale deve avvenire nel rispetto dei principi fondamentali della libertà di espressione, dell’obiettività dell’informazione e della protezione dei dati personali. In particolare, vengono sottolineate l’importanza della trasparenza nell’utilizzo dei dati personali e la necessità di ottenere il consenso per l’accesso ai sistemi di IA da parte dei minori.

Per quanto riguarda la cybersecurity, l’articolo 6 del disegno di legge stabilisce regole specifiche per le attività di ricerca, sviluppo e utilizzo di sistemi di IA per scopi di sicurezza nazionale e difesa nazionale. Si sottolinea l’importanza di garantire la correttezza, l’attendibilità e la sicurezza dei dati utilizzati nei sistemi di IA, oltre alla necessità di rispettare i principi generali di trasparenza e proporzionalità.

Inoltre, il disegno di legge prevede la creazione di una strategia nazionale sull’intelligenza artificiale, che sarà sviluppata e aggiornata dalla struttura competente della Presidenza del Consiglio dei Ministri, in collaborazione con le Autorità nazionali di intelligenza artificiale. Questa strategia avrà l’obiettivo di promuovere la collaborazione tra pubblico e privato, coordinando le azioni della pubblica amministrazione e incentivando lo sviluppo imprenditoriale e industriale nel settore dell’IA.

Complessivamente, il disegno di legge sull’intelligenza artificiale in Italia mira a garantire una gestione responsabile e trasparente delle nuove tecnologie, con particolare attenzione alla protezione dei dati personali e alla sicurezza nazionale.

Devin di Cognition: L’AI Rivoluzionario per lo Sviluppo Software

L’intelligenza artificiale sta compiendo progressi straordinari ogni giorno, grazie sia a realtà consolidate che a nuove startup che si impegnano quotidianamente per offrire agli utenti del web, ai professionisti di vari settori e agli appassionati di tecnologia nuovi strumenti per semplificare le loro attività e generare contenuti di valore. In questo contesto, emerge Devin, un prezioso strumento sviluppato da una piccola startup omonima.

Cos’è Devin, l’AI di Cognition?

Devin è uno strumento all’avanguardia che sfrutta le potenzialità dell’intelligenza artificiale per lo sviluppo di software, siti web e videogiochi. Grazie alle sue innovative funzionalità, potrebbe rappresentare una svolta significativa nel campo dell’IA generativa. Rivolgendosi agli ingegneri e agli sviluppatori, Devin offre un supporto concreto facilitando la scrittura del codice e consentendo un notevole risparmio di risorse, tempo ed energie.

Scott WE, CEO di Cognition, ha sottolineato che Devin può accedere a tutti gli strumenti di sviluppo comunemente utilizzati nel settore, pianificare e eseguire attività complesse e prendere decisioni importanti. In pratica, si occupa del lavoro più impegnativo, consentendo all’utente di concentrarsi sulla fornitura di prompt chiari e corretti.

Le funzionalità di Devin e il suo accesso.

Devin presenta un’interfaccia intuitiva simile a quella dei chatbot e lavora sullo sviluppo di software, siti web e videogiochi come farebbe uno sviluppatore umano. Oltre a fornire comandi testuali, gli utenti possono monitorare l’intero processo e intervenire in caso di errori o imperfezioni.

Il sistema può creare e migliorare applicazioni e siti web, individuare errori nel codice e risolvere bug senza richiedere intervento umano. A differenza di altri strumenti che offrono solo un supporto parziale, Devin gestisce l’intero progetto.

Come ci si può aspettare, l’AI di Cognition rappresenta una risorsa preziosa che consente agli ingegneri di affidare all’intelligenza artificiale le operazioni più ostiche, permettendo loro di concentrarsi su attività più creative.

Attualmente Devin è accessibile solo a clienti selezionati per essere testato e sperimentato. Le aziende interessate a integrarlo nei propri processi lavorativi possono contattare la startup tramite email. In futuro, Cognition potrebbe sviluppare strumenti simili per altre aree di lavoro.

In conclusione, Devin di Cognition si profila come uno strumento rivoluzionario nel panorama dello sviluppo software, offrendo un’alternativa innovativa e efficace per semplificare e ottimizzare i processi di programmazione.

Apple e Google collaborano per portare Gemini su iPhone con iOS 18

L’atteso aggiornamento del sistema operativo iOS 18 per iPhone potrebbe includere una novità sorprendente: l’utilizzo del modello di linguaggio Gemini di Google. Secondo le anticipazioni di Bloomberg, Apple avrebbe stretto un accordo con il colosso di Mountain View per sfruttare le capacità avanzate di intelligenza artificiale generativa offerte da Gemini.

Questa mossa rappresenta un cambiamento significativo per Apple, nota per essere piuttosto riservata nell’adozione di tecnologie sviluppate dai suoi concorrenti. Tuttavia, la crescente domanda da parte degli utenti per funzionalità AI sempre più avanzate avrebbe spinto Cupertino a cercare collaborazioni esterne per colmare questa lacuna.

Gemini è già utilizzato con successo su dispositivi di altri marchi, come il Pixel 8 Pro di Google e la linea Samsung Galaxy S24. Offre funzionalità come Magic Compose, che consente la creazione di messaggi nelle chat direttamente sul dispositivo. Tuttavia, Apple sembra interessata soprattutto all’utilizzo di Gemini per compiti più complessi basati sul cloud, come la generazione di immagini realistiche e testi articolati.

Questa collaborazione tra Apple e Google offre agli utenti iPhone l’accesso a funzionalità avanzate di intelligenza artificiale generativa, che fino ad ora erano disponibili principalmente su altri dispositivi. Mentre Apple continua a sviluppare soluzioni interne come il progetto Ferret e il chatbot Apple GPT, l’utilizzo di Gemini rappresenta una soluzione immediata per soddisfare le esigenze degli utenti in termini di AI.

Tuttavia, l’evoluzione di Gemini non è priva di controversie. Google ha recentemente annunciato una nuova versione del modello, in grado di gestire audio, video e testi di dimensioni molto più grandi rispetto a GPT-4. Tuttavia, alcuni risultati generati da Gemini sono stati oggetto di polemiche, spingendo Google a implementare limitazioni per affrontare le critiche.

In conclusione, la collaborazione tra Apple e Google per portare Gemini su iPhone rappresenta un importante passo avanti nell’integrazione di tecnologie avanzate di intelligenza artificiale nel mondo Apple. Resta da vedere come questa partnership influenzerà il futuro sviluppo e l’esperienza degli utenti su iOS.