Cosa c’è da sapere: Forbes ha condiviso un elenco di libri da non perdere, che esplorano la tecnologia, gli affari, la politica e l'etica dell'intelligenza artificiale.
Perché è importante: Questi topic sono fondamentali per informarsi e fare ragionamenti sulle evoluzioni che stanno riguardando il nostro futuro.
Ecco i tre libri, secondo noi più interessanti e ricchi di spunti di riflessione dall’elenco proposto da Forbes:
-
Genius Makers By Cade Metz.
È la storia avvincente e divertente di come è nato il moderno campo dell'intelligenza artificiale. Il libro è ricco di aneddoti sulla nascita del deep learning e si concentra soprattutto sui personaggi che hanno inaugurato l'odierna rivoluzione dell'IA: Geoff Hinton, Demis Hassabis, Yann LeCun, Fei-Fei Li, Jeff Dean e altri.
-
The Alignment Problem By Brian Christian.
Un' analisi illuminante di ciò che è noto come "problema di allineamento" nell'IA, dalle sue basi tecniche, alle sue implicazioni filosofiche.
-
Four Futures By Peter Frase.
Il libro inizia con la premessa che tre forze chiave daranno forma alla vita e alla civiltà umana nel ventunesimo secolo: automazione, cambiamento climatico e disuguaglianza sociopolitica. Vengono delineate quattro visioni alternative su come queste forze interagiranno per trasformare la società nei decenni a venire.
Cosa ne pensiamo noi: Nonostante il campo dell'intelligenza artificiale, come disciplina accademica, risalga agli anni ‘50, non è mai stato oggetto di maggiore attenzione e analisi di quanto non lo sia oggi. Esplorare, conoscere e informarsi su ragionamenti, schemi e strutture che si nascondono dietro lo sviluppo di sistemi basati su questa tecnologia, è fondamentale per comprenderne l’importanza, i limiti e le opportunità.
|
|
2. Hyperscale: una nuova prospettiva per i data center cloud
|
|
La notizia: Il numero di data center iper-scalabili (hyperscale) globali è salito a 659 nel 2021, secondo una ricerca del Synergy Research Group.
Perché è importante: L’ Hyperscale è una tecnologia fondamentale nel mondo del cloud. Si riferisce alla capacità di una vasta rete di computer di rispondere automaticamente alle mutevoli richieste degli utenti e di assegnare on demand carichi di lavoro alle risorse di elaborazione, archiviazione e rete.
Le tre caratteristiche principali dell’ Hyperscale Computing elencate da agendadigitale.eu:
-
Struttura fisica
Una rete iper-scalabile è come un cluster composto da super calcolatori ospitati in centinaia di data center organizzati in “isole” altamente connesse e a bassa latenza, che possono fisicamente essere adiacenti ma anche distanti centinaia se non migliaia di chilometri.
-
Gestione del traffico
Dovendo garantire la connessione continua tra siti dislocati, la rete iper-scalabile deve essere in grado di gestire un’elevata mole di dati in transito. Poiché è materialmente impossibile fornire le medesime prestazioni a livello planetario, i servizi cloud degli hyperscaler sono suddivisi in vaste aree all’interno delle quali sono garantiti livelli di performance ma anche di sicurezza e resilienza decisamente maggiori.
-
Automazione del software
All’interno delle architetture iper-scalabili è presente una “cabina di regia” digitale che in poche frazioni di millisecondo acquisisce i segnali in ingresso, li analizza e li spedisce al modulo migliore. Per ottenere questo risultato sono necessarie due funzionalità fondamentali conosciute come provisioning e orchestrazione.
Cosa ne pensiamo noi: Date le sempre più complesse e variegate esigenze degli utenti, le architetture standard dei sistemi di elaborazione dati, rischiano di diventare presto obsolete e inadeguate. In questo contesto, si apre la strada a strutture ibride o fisico-virtuali che sfruttano l’Hyperscale.
|
|
3. Data Protection: in che direzione stanno andando le aziende
|
|
Di cosa parliamo: L’89% delle organizzazioni non sta proteggendo sufficientemente i propri dati, secondo il Veeam Data Protection Trends Report 2022.
Perché è importante: I volumi di dati e la diversità delle piattaforme continueranno ad aumentare, e il panorama delle minacce informatiche si espanderà. Le aziende devono investire in una strategia che colmi le lacune e stia al passo con le crescenti richieste di protezione dei dati.
Qualche dato sul futuro della data protection:
-
Le aziende spenderanno circa il 6% in più ogni anno nella protezione dei dati rispetto agli investimenti generali in IT;
-
Il cloud diventerà la piattaforma dati dominante, infatti dallo studio emerge che il 67% delle aziende usa già servizi cloud come parte della propria strategia;
-
Il 39% delle organizzazioni crede che le capacità IaaS/SaaS siano un attributo decisivo per una Modern Data Protection.
Cosa pensiamo noi: Le architetture IT ibride guideranno le strategie di produzione ma anche quelle di protezione attraverso lo storage su cloud. È fondamentale per le aziende assicurarsi una business continuity affidandosi a infrastrutture cloud-hosted e alla Modern Data Protection.
|
|
Perchè lo standard OPC UA è fondamentale nel Manufacturing
Oggi si assiste a un incremento di dispositivi connessi e comunicanti negli impianti produttivi.
Per questo, negli stabilimenti in cui numerose tipologie di apparecchiature, dispositivi e macchinari misurano parametri di processo, producono dati o li registrano, è essenziale utilizzare lo standard Open Platform Communications (OPC) per facilitare lo scambio di informazioni.
In questo scenario, è importante per le industrie fare affidamento su soluzioni che memorizzino, elaborino e presentino i dati in modo efficace.
Leggi in che modo lo standard OPC rispetta tutte queste caratteristiche e perché è il più adatto alle industrie.
|
|
👨💻 Leggi le newsletter passate sbirciando il nostro archivio.
📩 Scrivici o rispondi a questa email per condividere un’idea o lasciare un commento
🤝 Pensi che questa newsletter possa piacere a un amico? Digli di iscriversi
|
|
CONDIVIDI QUESTA NEWSLETTER
|
|
|
|
|