Voxel Informatica s.a.s.

ChatGPT-5 all’Orizzonte

Nel dinamico mondo dell’informatica, le innovazioni non smettono mai di sorprenderci. Recentemente, l’attenzione del settore si è concentrata sull’annuncio della prossima versione del modello di linguaggio di OpenAI: ChatGPT-5. Dopo il successo delle precedenti iterazioni, ChatGPT-5 promette di ridefinire ulteriormente le capacità dell’intelligenza artificiale generativa, portando con sé una serie di miglioramenti e nuove funzionalità.

L’Evoluzione di ChatGPT

La serie di modelli ChatGPT ha visto una crescita esponenziale in termini di capacità e applicazioni. ChatGPT-3 ha rappresentato un punto di svolta, dimostrando la capacità di generare testo coerente e contestualmente rilevante su una vasta gamma di argomenti. Con ChatGPT-4, abbiamo assistito a un ulteriore salto di qualità, con un aumento della complessità delle conversazioni che l’IA è in grado di gestire, una comprensione più profonda del contesto e una maggiore capacità di gestire compiti specifici.

Novità di ChatGPT-5

Con l’annuncio di ChatGPT-5, OpenAI ha rivelato alcune delle caratteristiche chiave che possiamo aspettarci:

  1. Comprensione Contestuale Avanzata: ChatGPT-5 promette una comprensione contestuale ancora più raffinata, riducendo ulteriormente il rischio di risposte fuori luogo e migliorando la coerenza delle conversazioni.
  2. Miglioramento della Personalizzazione: Una delle principali richieste degli utenti era la capacità di personalizzare il comportamento e il tono del modello. ChatGPT-5 risponde a questa esigenza con strumenti di personalizzazione più avanzati, permettendo agli utenti di adattare l’IA ai loro specifici bisogni e preferenze.
  3. Efficienza Energetica: In un’era in cui la sostenibilità è fondamentale, ChatGPT-5 è stato sviluppato con un occhio di riguardo all’efficienza energetica. Questo non solo riduce l’impronta ecologica del modello, ma permette anche una maggiore accessibilità in termini di costi operativi.
  4. Integrazione Multimodale: Un’altra caratteristica innovativa è l’integrazione multimodale, che permette a ChatGPT-5 di elaborare e generare non solo testo, ma anche immagini e suoni. Questo amplia enormemente le applicazioni del modello, rendendolo uno strumento versatile per creatori di contenuti, sviluppatori e ricercatori.

Implicazioni e Futuro

L’introduzione di ChatGPT-5 non è solo un traguardo tecnologico, ma anche un indicatore delle potenzialità future dell’intelligenza artificiale. Con modelli sempre più sofisticati, le applicazioni dell’IA stanno espandendosi in settori come l’assistenza sanitaria, l’educazione, il customer service e la creazione di contenuti. Tuttavia, con grandi potenzialità derivano anche grandi responsabilità. È fondamentale che lo sviluppo di queste tecnologie sia accompagnato da un forte impegno etico, garantendo che l’IA venga utilizzata in modo equo e responsabile.

Conclusione

ChatGPT-5 rappresenta un nuovo entusiasmante capitolo nell’evoluzione dell’intelligenza artificiale generativa. Con le sue innovazioni, potrebbe ridefinire il modo in cui interagiamo con le macchine, rendendo l’IA una presenza sempre più integrata e utile nella nostra vita quotidiana. Non resta che attendere il suo rilascio per esplorare appieno le sue potenzialità e vedere come trasformerà il panorama tecnologico.

Fine del Supporto Windows 10 21H2

Microsoft ha annunciato che il supporto per Windows 10 21H2 terminerà a giugno, il che significa la cessazione degli aggiornamenti mensili di sicurezza. Questo vale anche per le edizioni Enterprise ed Education, rendendo cruciale aggiornare i sistemi operativi per evitare vulnerabilità di sicurezza.

A partire dall’11 giugno 2024, i sistemi con Windows 10 21H2, noto anche come Windows 10 November 2021 Update, non riceveranno più aggiornamenti mensili contenenti correzioni di bug e patch di sicurezza. I clienti che richiederanno assistenza dopo questa data verranno invitati ad aggiornare i propri dispositivi alla versione più recente di Windows 10 o a passare a Windows 11.

Le edizioni Home, Pro, Pro Education e Pro for Workstations di Windows 10 21H2 hanno già raggiunto la fine del supporto durante il Patch Tuesday di giugno 2023, rendendo ancora più urgente per gli utenti aggiornare il proprio sistema operativo. Attualmente, Windows 10 22H2 e Windows 11 23H2 sono disponibili per tutti gli utenti tramite Windows Update, e Windows 10 22H2 viene installato automaticamente sui dispositivi consumer e aziendali non gestiti per garantire protezione e un funzionamento ottimale.

Inoltre, Microsoft ha iniziato l’installazione forzata di Windows 11 23H2 sui dispositivi idonei che hanno già raggiunto o sono prossimi alla fine del supporto per Windows 10 21H2. Questo processo è iniziato con l’aggiornamento automatico a Windows 11 22H2 prima del termine del supporto l’11 ottobre. L’azienda ha rilasciato Windows 11 23H2 il 31 ottobre, un mese dopo averlo distribuito ai Windows Insider nel Release Preview Channel per test aziendali. L’aggiornamento attiva le funzionalità fornite nei precedenti aggiornamenti 22H2 che erano ancora in attesa di abilitazione.

Gli utenti e le aziende sono invitati ad aggiornare i propri sistemi operativi il prima possibile per garantire sicurezza e prestazioni ottimali.

Gemini: Google I/O celebra l’era degli AI Agent

Google I/O dominato dall’AI

Guardando le gradinate affollate dell’anfiteatro Shoreline, vicino al campus Google, Sundar Pichai ha scherzato.
“Oggi abbiamo pronunciato la parola AI circa 120 volte. Credo sia un record”.

Il pubblico ha riso. Il conteggio era stato fatto da un’intelligenza artificiale.
L’IA aveva analizzato tutti i discorsi di Google I/O, la conferenza annuale per sviluppatori.

L’ironia di Pichai ha chiuso un’edizione dominata dall’intelligenza artificiale.
Una tecnologia ormai presente in ogni prodotto Google.


I modelli Gemini di Google DeepMind

Al centro dell’evento ci sono i modelli di IA di Google DeepMind.
Sono il vero motore dell’intelligenza artificiale targata Google.

Gemini Nano, Pro, Pro 1.5 e Ultra rappresentano i modelli più avanzati mai sviluppati dal laboratorio.
A questi si aggiunge una nuova versione.


Gemini 1.5 Flash: più leggero, ma potente

Durante Google I/O è stato annunciato Gemini 1.5 Flash.
A presentarlo è stato Demis Hassabis.

È un modello più leggero rispetto a Gemini 1.5 Pro.
Nonostante questo, offre prestazioni elevate nel ragionamento multimodale.

Un’IA multimodale gestisce testo, immagini, audio e video.
Può anche generare contenuti in tutti questi formati.

Secondo Hassabis, Gemini 1.5 Flash eccelle nei riassunti e nelle conversazioni.
È efficace anche nell’analisi di documenti lunghi e tabelle complesse.


Cos’è Project Astra

I modelli Gemini sono alla base di Project Astra.
Il progetto è stato mostrato con una demo molto applaudita.

Nel video, l’IA aiuta una ricercatrice a ritrovare degli occhiali smarriti.
La conversazione appare naturale e fluida.

Prima di rispondere, Gemini osserva l’ambiente.
Riconosce un quartiere di Londra e interpreta codice sullo schermo.

Questo è possibile grazie all’analisi in tempo reale delle immagini.
Lo smartphone permette all’IA di “vedere” il mondo.


L’era degli AI Agent

Google ha annunciato l’inizio dell’epoca degli AI Agent.
Sono assistenti capaci di ragionare, pianificare e memorizzare informazioni.

Secondo Pichai, possono svolgere compiti al posto dell’utente.
Sempre, però, sotto supervisione umana.

Un esempio pratico è la gestione di un reso online.
L’AI può generare l’etichetta e prenotare il corriere.


Perché sono diversi da Siri e Alexa

Gli AI Agent segnano un salto rispetto agli assistenti tradizionali.
Siri, Alexa e Google Assistant rispondono a comandi specifici.

Non possono conversare davvero.
Hanno tempi di risposta lenti e nessuna memoria visiva.

Ora questo limite sta per essere superato.
Le interazioni diventano continue e contestuali.


Occhiali smart e futuro dell’AI

La demo ha mostrato anche occhiali smart con fotocamera e microfono.
Il dispositivo ha acceso molte speculazioni.

Google ha chiarito che si tratta di un prototipo di ricerca.
Non esistono ancora piani per un lancio commerciale.

In futuro, però, Project Astra potrebbe arrivare su dispositivi indossabili.
Alcune funzioni saranno integrate nell’app Gemini entro fine anno.


Veo e Imagen 3: l’AI creativa

Durante l’evento sono stati annunciati due nuovi modelli generativi.
Il primo è Veo, dedicato alla creazione di video da testo.

Veo genera video in 1080p e supera il minuto di durata.
Comprende istruzioni creative complesse.

Il secondo modello è Imagen 3.
Genera immagini realistiche e sostituisce Imagen 2.

Entrambi i modelli non saranno subito disponibili in Europa.

OpenAI introduce GPT-4o

OpenAI ha mantenuto le sue promesse, presentando il nuovo modello GPT-4o, che sarà disponibile gratuitamente per tutti gli utenti registrati. Durante un evento in streaming, sono state annunciate numerose novità che saranno presto accessibili al pubblico. Il nuovo modello, dove la “o” sta per “omni” per il suo approccio a 360 gradi, offre miglioramenti significativi rispetto a GPT-4 Turbo. Tra le nuove funzionalità spiccano le conversazioni in tempo reale, modalità audio e video, e chatbot emozionali in grado di rilevare e interpretare le espressioni facciali umane. Inoltre, è in arrivo un’app ChatGPT dedicata ai Mac.

Le dichiarazioni di Sam Altman

Il CEO di OpenAI, Sam Altman, aveva già anticipato in mattinata che gli aggiornamenti non avrebbero riguardato né GPT-5 né un motore di ricerca sviluppato da OpenAI. “Abbiamo lavorato sodo su alcune novità che pensiamo piaceranno molto alla gente. Mi sembra una magia,” ha scritto Altman. L’evento, che si è tenuto alle 19:00 italiane, è andato in scena un giorno prima della conferenza Google I/O di Mountain View. La replica dell’evento è disponibile sul sito di OpenAI e su YouTube.

Le novità di GPT-4o

GPT-4o introduce la capacità di interpretare le espressioni facciali attraverso le fotocamere degli smartphone, permettendo al modello di rilevare le emozioni e modulare il tono e le risposte di conseguenza, eventualmente aggiungendo effetti sonori e risate. Inoltre, il modello può generare risposte vocali in tempo reale con un tempo di risposta di 320 millisecondi, paragonabile a quello umano, superando di gran lunga i modelli precedenti. Queste caratteristiche fanno pensare subito al film “Her”.

“Dato che GPT-4o è il nostro primo modello che combina tutte queste modalità, stiamo ancora solo esplorando la superficie di ciò che il modello può fare e dei suoi limiti,” hanno affermato i dirigenti di OpenAI durante la presentazione. Il modello è anche molto efficace nelle traduzioni, supportando 50 lingue e coprendo il 97% della popolazione globale. GPT-4o sarà disponibile anche come servizio tramite API, e dopo un primo lancio per utenti a pagamento, sarà accessibile anche per gli utenti free. Questi ultimi potranno sfruttare funzionalità come la navigazione web, l’analisi dei dati, l’accesso al GPT Store e le funzioni di memoria, precedentemente riservate agli abbonati.

Nuova app desktop per Mac

OpenAI ha anche presentato un’app desktop per Mac che permette di utilizzare ChatGPT per varie funzioni, come chiedere cosa sia visualizzato sul display. L’app può essere richiamata con la scorciatoia Option + barra spaziatrice e riconosce elementi, scritte e immagini. Sarà disponibile gratuitamente, ma inizialmente solo per gli abbonati, che potranno utilizzarla in anteprima.

Verso un motore di ricerca AI?

Per ora, non è ancora il momento di un motore di ricerca basato su ChatGPT in grado di competere con Google. Tuttavia, sembra che uno strumento del genere sia in fase di sviluppo e potrebbe essere lanciato presto, sfruttando l’intelligenza artificiale per trovare, analizzare e visualizzare materiali di terze parti, rispondendo in modo più accurato alle richieste degli utenti.

Domani sarà il turno di Google I/O, dove il gigante delle ricerche online presenterà i suoi nuovi prodotti e soluzioni basati sull’intelligenza artificiale. Restate sintonizzati per ulteriori aggiornamenti!

AI su Safari 18

Secondo quanto riportato da Mark Gurman di Bloomberg, Apple presenterà una serie di interessanti novità riguardanti le app integrate in iOS 18 durante la WWDC 2024, che si terrà dal 10 al 14 giugno. Tra queste, particolare attenzione verrà data anche all’aggiornamento del browser di Apple, Safari 18, il quale includerà una nuova funzionalità basata sull’intelligenza artificiale generativa.

Una delle caratteristiche più significative di Safari 18 sarà la “Intelligent Search”. Questa nuova funzionalità, disponibile sia su iOS 18 che su macOS 15, si integrerà attraverso un nuovo menu nella barra degli indirizzi. Sfruttando il modello Ajax, gli utenti potranno interrogare la pagina web per ottenere informazioni specifiche e generare un riassunto del contenuto.

Un’altra funzionalità in fase di test è il “Web Eraser”. Questa opzione permetterà agli utenti di eliminare parti specifiche di una pagina web, come immagini, testo e banner pubblicitari, in modo persistente. Safari conserverà le modifiche anche dopo la chiusura della scheda o del browser, avvertendo gli utenti al ritorno sulla pagina modificata e offrendo la possibilità di ripristinare l’aspetto originale.

Inoltre, Safari 18 presenterà un’interfaccia utente aggiornata per semplificare l’accesso alle varie opzioni, con un design uniforme sia su macOS che su iPadOS. Si prevede che tutte queste novità verranno illustrate nel dettaglio durante la conferenza di giugno.

Apple ha anche avviato lo sviluppo di altre funzionalità basate sull’intelligenza artificiale che potrebbero essere rilasciate nel corso del 2025. Tra queste, una simile a “Visual Look Up” dell’app Foto, chiamata “Visual Search”, che consentirà agli utenti di ottenere informazioni sulle immagini visualizzate direttamente in Safari.