Newsletter
Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Google ha iniziato il rilascio di un nuovo aggiornamento per la sua applicazione Maps, con il quale sarà possibile sovrapporre le indicazioni del navigatore a ciò che vede l’occhio della fotocamera. Già disponibile in fase di test per i telefoni Pixel, prodotti da Google, la nuova funzione Live View potrà essere utilizzata anche dai dispositivi Android e iOs.

Grazie a Live View è possibile camminare seguendo le indicazioni sullo schermo, che saranno mostrate sovrapposte all’immagine in tempo reale dello scenario che l’utente ha davanti. Il sistema è stato pensato per consentire di ricevere indicazioni contestualizzate sul luogo nel quale ci si trova, eliminando così l’ultima barriera tra l’informazione che dà il dispositivo e il mondo circostante.

“Niente è come esplorare una città a piedi: è un ottimo modo per scoprire luoghi e suoni di un posto  nuovo. Ma può essere difficile sapere esattamente in quale direzione andare. Con una funzione beta chiamata Live View, puoi usare la realtà aumentata (AR) per vedere meglio da che parte andare quando ti muovi a piedi – si legge sul blog di Google – Le frecce e le indicazioni sono posizionate nel mondo reale per guidare il vostro cammino”.

Tra le altre novità introdotte da Google, anche una funzione che tiene traccia di tutte le prenotazioni aeree e gli alberghi in un’unica finestra operativa, disponibile anche in modalità offline. In questo modo l’utente potrà accedere a un’area riassuntiva del proprio viaggio che contiene biglietti aerei e dettagli delle prenotazioni d’albergo.

Eccolo il sistema operativo di Huawei. Si chiama HarmonyOS: esiste (come era già stato confermato) ed è pronto a partire camminando sul filo: dimostrare che la casa cinese può farcela, ma sottolineando che Android è sempre la prima scelta.

Non è (ancora) tempo di guerra

Richard Yu, ceo di Huawei Consumer Business Group, ha mostrato i muscoli e affermato – durante la conferenza per gli sviluppatori – che il sistema operativo sarebbe in grado di sostituire Android. Sarebbe, perché dal gruppo di Shenzhen arriva un messaggio chiaro: si tratta di un’eventualità, ma al momento non c’è l’intenzione di portare HarmonyOS su smartphone. Questo non vuol dire che non lo farà mai. Potrebbe essere una via obbligata se lo scenario dovesse ingarbugliarsi. Yu ha parlato di un sistema operativo capace di offrire “un’esperienza olistica intelligente su tutti i dispositivi e in ogni scenario”. Ma per ora, nella roadmap presentata sul palco la parola “smartphone” non c’è. L’esordio sarà su “smart screen che verranno lanciati entro la fine del 2019”.

Poi si passerà a smartwatch, altoparlanti intelligenti, set per l’auto, visori per la realtà virtuale. Lasciare gli smartphone sullo sfondo non aizza un conflitto – per ora solo latente – con Google e Android. Occhio alle date. L’annuncio di HarmonyOS arriva ad appena dieci giorni da uno snodo cruciale. Il 19 agosto scadrà il congelamento della “lista nera” di Trump che di fatto blocca le collaborazioni tra società americane e Huawei. Da allora in poi si inizieranno davvero a capire le possibili ripercussioni. Il gruppo di Shenzhen si muove ma non ha intenzione (né interesse, come non ce l’ha Google) di andare allo scontro frontale. Huawei non ha infatti mai smentito lo sviluppo del sistema operativo (che trova la propria origine nel 2009 e le radici di HarmonyOS nel 2017) e parla da mesi di piano B. Lo ha fatto Richard Yu in molte altre dichiarazioni. Lo ha fatto il deputy general manager consumer di Huawei Pier Giorgio Furcas a luglio, durante la presentazione italiana del Mate 20X 5G: “Google rimane il partner importantissimo”, con il quale “il rapporto non si è mai interrotto”.

Com’è fatto HarmonyOS

Le presentazioni di Huawei sono, di solito, molto “comparative”. Il gruppo non ha mai avuto paura di confrontare le performance dei propri prodotti con quelle dei concorrenti. Pur senza spingere troppo, lo ha fatto anche stavolta. Yu ha sottolineato infatti che HarmonyOS è qualcosa di “completamente diverso” da Android e iOS. È open source e punta a rimuovere ogni attrito tra un dispositivo e l’altro. In sostanza: basta sviluppare l’app una volta per avere accesso a dispositivi diversi. Un accorgimento che, almeno potenzialmente, permette di raggiungere più utenti con un investimento di tempo e tenero minore.

Il sistema operativo è anche compatibile con Android: far migrare la propria app richiederà pochi giorni. Huawei punta sulla leggerezza: utilizza un “microkernel”, cioè un kernel (il cuore del sistema operativo) “compattato”. Secondo la casa cinese, un codice più snello permetterebbe una migliore adattabilità a ogni dispositivo, specie nell’Internet of Things, più sicurezza e minore latenza (con tempi di risposta più rapidi del 25%). 

Il vero obiettivo è l’ecosistema

In questo momento i dettagli tecnici contano fino a un certo punto. Per affiancarsi ad Android o (in prospettiva) sostituirlo non basta un sistema operativo. Come già aveva sottolineato il fondatore Ren Zhengfei a maggio, “la cosa più difficile è creare un ecosistema”. Cioè un ambiente nel quale ci siano sviluppatori che battezzino app e utenti che le utilizzino. È questa la vera forza del robottino verde: qualsiasi smartphone si acquisti (a eccezione dell’iPhone), si cammina in un universo digitale conosciuto, simile al precedente (al netto delle personalizzazioni di marchio).

Questo Huawei lo sa bene, tanto da ribadirlo nella nota ufficiale con la quale ha presentato HarmonyOS: il suo successo non dipenderà tanto da quanto va veloce ma soprattutto “da un ecosistema dinamico di app e sviluppatori”. Per crearlo Shenzhen partirà dalla Cina. Una mossa logica, che combina il vantaggio di un mercato casalingo con quello di non invadere il campo di Google. “Più avanti – ha spiegato Huawei – HarmonyOS si espanderà nell’ecosistema globale”. Di nuovo: il sistema operativo c’è ma resta – almeno per gli smartphone – il piano B.  

Anche il Samsung Galaxy Note si sdoppia. Per la prima volta il dispositivo, presentato dalla casa sud-coreana, ha una versione standard e una “Plus”, di dimensioni e con alcuni accorgimenti superiori. Ci sarà quindi un Galaxy Note 10 da 6,3 pollici e un Galaxy Note 10+ da 6,8 pollici (lo schermo più grande mai visto su uno smartphone Samsung).

Note 10, lo smilzo extra-large

Samsung decide di adottare anche per il suo dispositivo con pennino quella che è ormai diventata una tradizione per la linea S e per molti concorrenti. La scelta è quella di puntare su un dispositivo con dimensioni simili a quelle del Note 9, aggiungendo un “mega” Note, che però resta su un ingombro accettabile grazie al formato del display “Cinema Infinity”: le cornici sono praticamente scomparse e non c’è notch. Viene adottato e adattato lo stile dell’Infinity-O visto sul Galaxy S9: le fotocamere frontali sono incastonate nello schermo Amoled. Accorgimenti che permetto di avere dimensioni complessive inferiori o simili al Note 9, ma con una superficie utilizzabile superiore. Il Note 10 da 6,4 pollici è lungo 151 millimetri e largo 71,8. È quindi decisamente più piccolo del suo predecessore, che pur avendo un display da 6,3 pollici aveva un ingombro maggiore: 161,9 per 76,4 millimetri. Allo stesso modo, il “gigante” di casa, da 6,8 pollici, si mantiene su dimensioni (162,3 per 77,2 millimetri) non lontane dal dispositivo dello scorso anno. Samsung ha quindi lavorato per rendere il Note 10 più smilzo e leggero. Lo spessore dei nuovi arrivati è di 7,9 millimetri, con un taglio del 10% rispetto al Note 9. Il peso è di 168 grammi per la versione base (33 in meno del predecessore) e di 196 per quella Plus.

Prezzi per un nuovo pubblico

La differenza non solo di dimensioni ma anche di dotazione: il processore è lo stesso (l’Exynos 9825) ma i due dispositivi si discostano per RAM ed espandibilità della memoria. Ci sono anche differenze nella qualità del display e nel set di fotocamere posteriore (tripla per la versione standard e quadrupa per il Plus). È un tentativo di differenziare i prezzi e coprire un pubblico più ampio. In altre parole: si lascia una possibilità di scelta, per quanto su una fascia comunque elevata. In Italia il Note 10 sarà disponibile solo nella versione da 8GB di RAM, con spazio di archiviazione interna da 256 GB (non espandibile), in colorazioni Aura Glow e Aura Black.

Resta sotto i 1000 euro: 979, 50 in meno del Note 9. Si sale per il Note 10+, disponibile in tre varianti. La versione da 12GB di RAM e 256 GB di memoria (espandibile fino a 1TB) costerà 1.129 euro. Tutto sommato ridotto è lo scarto (100 euro esatti) per avere 512 GB di archiviazione (disponibile anche in un terzo colore, Aura White). 1229 è anche il prezzo per il Note 10+ 5G, sempre con 12 GB di Ram ma con memoria meno capiente, da 256 GB, e solo nella colorazione nera.

Le novità del “dieci”

Tra le funzionalità presenti sui nuovi arrivati c’è la ricarica ultra-rapida. E la possibilità di trasformare il Note in una piattaforma di ricarica wireless per Galaxy Watch e per Galaxy Buds, gli auricolari senza fili del marchio. Ci sono poi le funzionalità legate al pennino e alla produttività, che sono poi il cuore storico della gamma. Il Galaxy Note10 introduce la possibilità di appuntare le note a mano e convertirle istantaneamente in testo digitale. Anche in un documento Word. La nuova S Pen è dotata di nuove funzionalità, le “Air Actions”, che permettono di controllare lo smartphone con i gesti, senza toccare il display. Se poi occorre trasferire i file sul pc o si desidera utilizzare le app con mouse e tastiera, basta collegare lo smartphone con un cavo Usb, grazie a Samsung DeX.

Il Note 10 si rivolge poi ai professionisti del settore video, con alcuni accorgimenti quali Video Fuoco Live (permette di regolare la profondità di campo) e un Super Stabilizzatore. “Ogni elemento di Galaxy Note10 è stato progettato per aiutare gli utenti ad ottenere il meglio”, ha spiegato DJ Koh, presidente e ceo della divisione IT & Mobile Communications di Samsung. “Con il lancio del Galaxy Note 10 – ha affermato Carlo Carollo, vicepresidente della divisione Telefonia di Samsung Italia – portiamo la sfida della produttività in movimento ad un nuovo livello. Il nuovo Note è stato progettato per rispondere come nessun altro smartphone alle esigenze di uno stile di vita contemporaneo, rispecchiando la necessità degli utenti più avanzati di sfruttare al massimo ogni momento della giornata”.

Today, we’re taking Note further. Say hi to Galaxy Note10 and 10+.
Learn more: https://t.co/YbrtBydHMb pic.twitter.com/2ieJKpoTZG

— Samsung Mobile (@SamsungMobile)
August 7, 2019

Dopo Google e Amazon, anche Apple ammette che società terze potrebbero ascoltare frammenti di conversazioni registrate da Siri. A rivelarlo è un’inchiesta del Guardian, che da fonti riservate ha appreso che alcuni clip audio registrati dall’assistente vocale dell’azienda potrebbero essere sottoposti a un controllo di qualità operato da terze parti. Secondo quanto riportato dalla fonte citata, sotto garanzia di anonimato, i tecnici delle società in appalto hanno avuto modo di ascoltare anche frammenti di conversazioni dal contenuto altamente riservato, che hanno riguardato visite mediche, traffici di droga e fughe sessuali, tutte rientrate a far parte del controllo qualità del servizio.

Alla richiesta di un commento, Apple ha replicato al Guardian che “una piccola porzione delle richieste fatte a Siri viene analizzata per migliorare Siri e la [funzione di] dettatura. Le richieste degli utenti non sono associate con l’identificativo di Apple. La risposta di Siri viene analizzata all’interno di strutture sicure e tutti i tecnici (‘reviewers’ nel testo) sono tenuti ad aderire agli stringenti parametri di riservatezza di Apple”. In aggiunta, l’azienda ha chiarito che le registrazioni sottoposte a valutazione sarebbero meno dell’uno per cento delle richieste quotidiane rivolte a Siri. Scelte in modalità casuale, queste durerebbero “tipicamente pochi secondi”.

Tuttavia, la fonte citata dal Guardian smentisce la dichiarazione di Apple, affermando che in alcuni casi è stato possibile ascoltare le clip audio di utenti che hanno inavvertitamente attivato Siri, venendo così registrati a loro insaputa. Inoltre, queste sarebbero accompagnate da informazioni che possono essere utilizzate per identificare la fonte, come ha dichiarato l’informatore anonimo: “Ci sono stati innumerevoli casi di registrazioni con discussioni private tra medici e pazienti, accordi d’affari, accordi apparentemente illeciti, incontri sessuali e così via. Queste registrazioni sono accompagnate da dati utente che mostrano la posizione, i dati di contatto e i dati dell’applicazione”.

Come evidenziato anche da Engadget, la rivelazione del Guardian è resa ancora più grave dal fatto che è abbastanza facile attivare Siri per errore. L’assistente vocale è programmato per rispondere al comando vocale di attivazione “Hey Siri”, ma questo può venire frainteso in molti modi e con diverse parole simili. L’anno scorso, per esempio, il segretario britannico alla Difesa, Gavin Williamson, è stato interrotto durante un intervento al Parlamento proprio dall’attivazione dell’iPhone presente nella sua tasca, che ha confuso la parola Siria con Siri. Secondo quanto riportato dalla fonte del Guardian, anche l’Apple Watch e lo smart speaker HomePod sono soggetti a errore, e avrebbero effettuato anche registrazioni di trenta secondi.

“Non c’è molto controllo su chi ci lavora e la quantità di dati che siamo liberi di esaminare sembra piuttosto ampia. Non sarebbe difficile identificare la persona che stai ascoltando, specialmente con attivazioni accidentali [causate da] indirizzi, nomi e così via”, ha dichiarato la fonte al Guardian. La stessa ha anche ammesso che allo staff incaricato dell’analisi degli audio sarebbe stato detto di riportare le attivazioni accidentali come problemi tecnici, senza fornire ulteriori informazioni su come agire.

La rivelazione riportata dal Guardian evidenzia, ancora una volta, i possibili errori in cui possono incorrere gli assistenti vocali. A maggio del 2018, l’omologo di casa Amazon, Alexa, ha registrato per errore delle conversazioni per poi mandarle ai contatti in rubrica, mentre un altro dispositivo della stessa azienda è diventato testimone involontario in un caso di omicidio. Ma a preoccupare è soprattutto il ricorso di queste aziende al controllo umano, spesso delegato a società terze non direttamente controllate dal produttore, come hanno dimostrato anche recenti richieste riguardanti Amazon Alexa e il concorrente prodotto da Google, Assistant

Stati Uniti e Gran Bretagna al momento sono fuori da Instagram e Facebook. Il down che ha colpito le due piattaforme social si sarebbe manifestato in Italia in una forma un po’ più lieve. Su Twitter gli hashtag #Instagramdown e #Facebookdown sono diventati immediatamente di tendenza. Sul sito DownDetector, che monitora il funzionamento dei maggiori servizi online, le prime segnalazioni sarebbero arrivate poco prima delle 16 e, sempre per quanto riguarda l’Italia, nel 73% dei casi con Instagram si sarebbero verificati problemi riguardo il login. Su Facebook invece nel 64% dei casi si sarebbero riscontrate difficolta’ nell’accedere alla piattaforma, il 25% delle segnalazioni invece denunciano un total blackout del social network. 

Due anni fa, durante la conferenza per gli sviluppatori, Facebook lo aveva detto: “Stiamo lavorando a un sistema che permetta alle persone di scrivere con il pensiero”. Non era e non è il solo a farlo, ma adesso quell’obiettivo è un po’ più vicino.

Un (piccolo) passo avanti

Sia chiaro: non c’è ancora nulla di pronto all’uso, né lo sarà a breve. Ma una ricerca pubblicata su Nature e legata a Menlo Park ha fatto un passo avanti: un team della University of California è riuscita a tradurre “i pensieri” (o, meglio, i segnali elettrici del cervello) in parole. Non è una tecnologia del tutto nuova. Sono già diverse le ricerche sulla “Brain Computer Interface”, cioè su un’interfaccia che permetta di collegare direttamente cervello e macchine, senza far scorrere le dita sul display o pigiare i pulsanti di una tastiera.

La novità sta, questa volta, nella capacità di tradurre i pensieri in tempo reale, con un’accuratezza del 76%. E di farlo in un dialogo “aperto”, cioè durante una conversazione simile a quella naturale, per quanto non certo fluente e continuativa. A tre pazienti affetti da epilessia sono stati applicati degli elettrodi. I ricercatori hanno rivolto loro alcune semplici domande, chiedendo di rispondere ad alta voce. In tre casi su quattro, le parole pronunciate hanno trovato corrispondenza con quelle “lette” dal computer.

Cosa vuole farci Facebook

Anche Facebook ha chiarito che siamo ancora distanti da una potenziale applicazione. Il sistema è ancora troppo “ingombrante, lento e inaffidabile”. Azzeccare le parole nel 76% dei casi è incoraggiante, ma vuol dire che si sbaglia una volta su quattro. Tanto. “Vale però la pena continuare a migliorare questa tecnologia perché ha un potenziale significativo”, ha spiegato Menlo Park. Anche perché questo potenziale potrebbe esprimersi in una forma semplificata: non serve che ci sia una comprensione di pensieri complessi e lunghi discorsi. Per iniziare, basterebbe percepire con esattezza comandi come “seleziona” o “elimina”.

Se il tasso d’errore fosse azzerato (o quasi), l’hardware richiesto abbastanza snello e il software economico a sufficienza, il “lettore di pensieri” potrebbe integrarsi nei visori per la realtà aumentata ed essere utilizzato nei videogiochi o in alcuni ambienti di lavoro. Questa sembra essere l’applicazione più immediata, almeno nell’universo Facebook. Durante la F8 del 2017, un possibile utilizzo della Brain Computer Interface era stato fissato “entro 10 anni”, cioè attorno al 2027.

Per le applicazioni più complesse, servirà ancora più tempo. Soprattutto se il traguardo è quello abbozzato da Menlo Park due anni fa: “Creare un sistema in grado di trascrivere 100 parole al minuto direttamente dal cervello, quindi con una velocità cinque volte superiore a quella con cui scriviamo sugli smartphone”.

Il cervello come un account social

Il gruppo guidato da Mark Zuckerberg immagina il cervello come una sorta di account social. E come un account social dovrebbe avere specifiche impostazione sulla privacy: “Oggi si scattano molte foto, ma si decide di pubblicarne solo alcune”. Allo stesso modo, il sistema dovrebbe essere in grado di decodificare “solo le parole che hai deciso di condividere”.

Già due anni fa Facebook sottolineava quindi il problema della riservatezza. E visto quello che è successo nel frattempo (il caso Cambridge Analytica e il nuovo corso del social “privato”), continuerà a essere molto cauto. L’interfaccia computer-cervello, spiegava in un post, “è un modo di comunicare con la velocità e la flessibilità della voce, ma con la privacy del testo scritto”.

Si tratta di una prospettiva non certo immediata, che però è sfuggita al perimetro della fantascienza per entrare in quella del (tecnicamente) possibile. Far parlare cervello e macchina è uno dei prossimi campi d’azione, come dimostra anche l’annuncio di Elon Musk, che con Neuralink ambisce a far dialogare le persone paraplegiche con smartphone e pc grazie a un microprocessore impiantato nel cervello. I test inizieranno il prossimo anno.   

La nuova frontiera dello smartwatch è l’italianissimo Get: un dispositivo multifunzione che sfrutta il principio fisico della conduzione ossea consentendo di avvicinare l’indice all’orecchio per ascoltare contenuti, rispondere a notifiche ed effettuare pagamenti, dicendo addio ad auricolari, altoparlanti e display.

A produrlo è la startup italiana Deed, nata nel maggio 2016 nell’incubatore I3P del Politecnico di Torino e accelerata da TIM WCAP. Dopo aver ricevuto finanziamenti per 700 mila euro, è approdata sul mercato internazionale attraverso una campagna di crowdfunding su una delle più importanti piattaforme statunitensi, Kickstarter.

Un’iniziativa che ha consentito a Deed di raccogliere 100 mila dollari e di posizionarsi all’interno di un mercato caratterizzato da un pubblico maturo ed esigente, come quello americano, in un contesto in cui la domanda iindossabili è doppia rispetto a quella dell’intero mercato europeo.

“Sono trascorse poche ore dalla chiusura della campagna – ha commentato il CEO di Deed Edoardo Parini che ha ideato il progetto, con il supporto del fratello gemello Emiliano – e siamo soddisfatti di questo primo importante traguardo: la raccolta di pre-ordini da tutto il mondo per oltre 100.000 dollari”.

L’aspetto di Get è quello di un bracciale, di uno smartwatch con uno display quasi inesistente. Una vibrazione lungo il braccio avverte che è in arrivo una chiamata, un messaggio o una notifica. Per ascoltare basta avvicinare il dito all’orecchio, mentre per rispondere, attivare un comando o fare un pagamento basta utilizzare il comando vocale. Venduto a 190 dollari l’uno, Get – fanno sapere da Deed “unisce in un unico dispositivo le funzionalità di uno smartwatch e di un fitness-tracker, creando un ‘ponte intelligente’ tra corpo e smartphone, al quale è collegato via bluetooth”.

Oltre a consentire di rispondere ai messaggi del telefono, il bracciale permette anche di tracciare l’attività fisica, di monitorare il ciclo del sonno e di effettuare pagamenti contactless in tutta sicurezza, grazie al fatto che l’identità dell’utente viene riconosciuta univocamente attraverso l’identificazione dell’impronta digitale. Per comandarlo bastano semplici gesti, che consentono di accedere a funzionalità e applicazioni.

La tecnologia su cui si basa era già sfruttata nel XIX secolo da Beethoven che, una volta diventato sordo, usava legare una stecca di legno alle corde del pianoforte e, stringendola tra i denti, riusciva ad ascoltarne il suono per continuare a comporre. La stessa tecnologia è già usata in campo medicale senza alcuna controindicazione e, da qualche giorno, il MAXXI di Roma ha lanciato la sperimentazione del Get in sostituzione delle classiche audioguide, con l’obiettivo di rinnovare l’esperienza e la fruizione del Museo e delle sue opere.

Non solo: Spotify ha adottato la tecnologia Deed per l’evento di lancio del nuovo album del cantautore italiano Ultimo: un evento esclusivo, lo scorso aprile a Milano, nel quale 40 fan hanno potuto ascoltare in anteprima, attraverso Get, il suo nuovo brano ‘Colpa delle favole’. Nastro Azzurro ha, invece, trasformato i Navigli milanesi in una grande “silent disco” a cielo aperto, in cui la tecnologia Get ha consentito al pubblico di ascoltare la musica di artisti di punta del panorama musicale in un inconsueto e silenzioso dj-set.

Per questo progetto, la startup ha già portato a casa diversi premi: il Myllennium Award (2017) per le “eccellenze under 30” che, oltre al Premio in denaro, ha portato i fondatori di Deed allo startup accelerator IXL Excellent di Boston, certificato da Forbes tra i migliori al mondo; il Museum Booster 2017, l’hackathon promosso dal MAXXI; il FactorYmpresa Turismo (2018), programma di MIBACT e Invitalia che premia le migliori idee d’impresa per favorire l’innovazione del turismo in Italia; il Seal of Excellence (2019), marchio di qualità della Commissione Europea per la ricerca e l’innovazione.

Sembra semplicemente un gioco di parole. Eppure il titolo racconta bene qual è lo scopo dell’ultimo tool sviluppato da alcuni ricercatori dell’Università di Harvard e del MIT di Boston che potrebbe aiutare giornalisti e lettori a capire quando un testo è scritto da una mano non-umana.

Gli algoritmi che usano l’intelligenza artificiale sono in grado oggi di generare un testo abbastanza convincente e sensato da ingannare gran parte di noi. Uno strumento che potrebbe avere alcune alcune finalità poco etiche con la generazione e la diffusione di fake news e falsi profili social. Ma, come scrive il Mit Technological Review, l’AI può essere usata “per fortuna” anche per identificare questi testi nati artificialmente.

L’acronimo che identifica il tool è GLTR (Giant Language Model Test Room). Come un moderno Sherlock Holmes digitale recupera gli indizi lasciati in giro dalle Intelligenze artificiali e sfrutta il fatto che tali sistemi si basano su schemi statistici contrapponendosi al reale significato di parole e frasi.

Ovvero, GLTR riesce a capire se le parole di un articolo o di un libro sono troppo scontate e prevedibili per essere state scelte dal nostre cervello che ama, invece, la complessità e la variazione. Per arrivare a questo risultato, il team ha sviluppato una versione di un codice rilasciato pubblicamente da Open AI, l’organizzazione no-profit fondata da Elon Musk.

L’analisi del testo finale da parte di GLTR è molto semplice. Prendendo ad esempio una pagina di Infinite Jest, capolavoro di David Foster Wallace, è possibile vedere come:

– le parole verdi siano quelle più prevedibili e comuni
– le parole gialle e rosse siano meno comuni
– le parole viola sono quelle più originali, ricercate, meno prevedibili di tutte

In base al colore dominante del testo è più facile capire se un testo è frutto dell’immaginazione e della creatività umana o se c’è la possibilità che sia stata una macchina a realizzarlo.
Per capire l’efficacia di GLTR, i ricercatori di Harvard hanno condotto un piccolo esperimento con alcuni studenti. Hanno chiesto loro di identificare diversi elaborati scritti da una AI, prima senza usare il tool e poi con il tool. I tester sono riusciti ad individuare solo il 50% dei testi artificiali da soli. Una percentuale che sale al 72% grazie all’aiuto di GLTR.

Ah, siete curiosi? Potete testarlo anche voi direttamente qui direttamente qui

Il sedicenne Kyle Giersdorf, in arte “Bugha”, ha vinto la gara individuale alla Coppa del Mondo di Fortnite organizzata a New York, all’interno dell’Artur Ashe Stadium, lo scorso weekend. Si è aggiudicato i 3 milioni di dollari messi in palio dall’evento, una parte consistente dei 30 milioni di dollari complessivi che sono stati assegnati durante la competizione. Il duo composto dal norvegese Emil Bergquist Pedersen (Nyrhox) e dall’austriaco David Wang (Aqua), rispettivamente 16 e 17 anni, si è imposto nella categoria a coppie, aggiudicandosi un premio complessivo di 3 milioni di dollari.

Gloria anche per l’Italia che ha ottenuto, nella gara a squadre, il sesto posto grazie a Edoardo “Carnifex” Badolato , 24 anni, originario di Bergamo, nel team Llama Record. Per lui una vincita di 67.500 dollari.
Fortnite, videogioco di strategia e combattimento che conta oltre 250 milioni di giocatori nel mondo, e’ uno degli esempi piu’ evidenti di come gli eSports, a livello professionistico, siano oggi in grado di generare attenzione mediatica e guadagni.

Ma che cos’è Fortnite e come funziona?

Fortnite è un videogame online sviluppato da Epic Games – società americana che sviluppa giochi e software, con sede vicino a Raleigh in North Carolina – nel 2017. Ha avuto un successo così grande che, per fare solo un esempio, durante gli ultimi mondiali di calcio si sono viste esultanze ispirate al gioco. Ci sono diverse versioni del gioco e due sono quelle principali.

Nella versione Save the World i giocatori cooperano contro il computer. In uno scenario post-apocalittico, gli utenti fanno squadra (fino a un massimo di quattro giocatori) contro l’intelligenza artificiale del computer, che scatena ondate di “husks” – creature simili a zombie – a cui bisogna sopravvivere. I 4 giocatori devono allora costruire strutture, prepararsi ad attacchi e a difendersi, per proteggere i pochi umani rimasti sulla Terra. Semplificando, si può dire sia un mix tra un gioco “spara-tutto” e un gioco di strategia.

Nella versione Battle Royale – che è poi quella in cui ha vinto Giersdorf  e che ha riscosso il maggior successo – i giocatori sono fino a 100. I rispettivi avatar – cioè i personaggi scelti dagli utenti – vengono paracadutati su un’isola deserta. Qui, avendo all’inizio solo un piccone a disposizione, i giocatori devono costruirsi un rifugio, procurarsi armi, munizioni, kit di medicine, costruire trappole contro gli avversari e via dicendo. Poi hanno inizio gli scontri. Lo scopo è sopravvivere. Vince chi, tra i 100 giocatori, rimane in vita.

Man mano che il tempo passa, il gioco riduce l’area dell’isola in cui i giocatori possono restare, forzando quindi gli avatar a incontrarsi e a scontrarsi. Anche in questo caso il gioco è un mix di “spara-tutto” e strategia.

I numeri di Fortnite

Secondo le testate di settore, gli iscritti risultavano essere oltre 250 milioni a marzo 2019 e gli “utenti attivi” – cioè che hanno materialmente giocato almeno una volta – 78,3 milioni ad agosto 2019. Il picco di utenti che hanno giocato in contemporanea è impressionante: 10,8 milioni di persone a inizio febbraio 2019, durante un evento virtuale che comprendeva anche un concerto – anch’esso virtuale –  di Dj Marshmello.

Ad oggi, Fornite è scaricabile gratuitamente su diverse piattaforme, ma per avere accesso a pacchetti esclusivi o potenziamenti per i propri avatar è richiesto il versamento di somme di denaro.

Dal punto di vista economico, Epic games ha così avuto nel solo 2018 tre miliardi di dollari di profitti, in grande parte attribuibili – secondo le testate specializzate – proprio al successo di Fortnite. E i numeri nel 2019 potrebbero crescere ulteriormente.

Durante la Fortnite World Cup è stato annunciato il prossimo lancio della decima stagione del gioco (ci sono più nuove stagioni ogni anno), che avverrà il 1° agosto 2019. La nona stagione era stata lanciata il 9 maggio.

 

Se avete delle frasi o dei discorsi che volete sottoporre al nostro fact-checking, scrivete a dir@agi.it

Sono oltre 20 le idee progettuali vincitrici della terza edizione di “Youth in Action for Sustainable Development Goals”, il concorso che premia i giovani under 30 capaci di elaborare soluzioni innovative, ad alto impatto sociale e tecnologico per contribuire al raggiungimento degli Obiettivi di Sviluppo Sostenibile.

Il concorso “Youth in Action for SDGs”, giunto ormai alla sua terza edizione, è stato promosso da Fondazione Eni Enrico Mattei, Fondazione Italiana Accenture e Fondazione Giangiacomo Feltrinelli, in collaborazione con ASviS e con il supporto di AIESEC, RUS e SDSN Youth. Sono state oltre 250 le idee progettuali candidate su ideaTRE60, la piattaforma digitale di Fondazione Italiana Accenture che ospita il concorso, in aumento del 30% rispetto alla precedente edizione.

“La Fondazione Eni Enrico Mattei, da sempre impegnata nella ricerca e nella divulgazione in Italia e all’estero dei temi legati all’Agenda 2030 delle Nazioni Unite ha creduto nel concorso Youth in Action for SDGs fin dalla sua prima edizione, nella convinzione che siano i giovani il motore del futuro cambiamento. E’ soprattutto dai giovani che arrivano e arriveranno nuove energie e idee per lo sviluppo sostenibile e un concreto impegno per una qualità migliore della vita sul nostro Pianeta” – spiegaPaolo Carnevale, Direttore Esecutivo di Fondazione Eni Enrico Mattei.

“Riteniamo che questo concorso rappresenti un’importante occasione di crescita per i giovani, poiché li spinge a lavorare concretamente su progetti di sostenibilità, temi sempre più presenti e rilevanti anche per le aziende. Siamo convinti che siano i più giovani a rappresentare il motore del cambiamento, grazie alla loro capacità di individuare soluzioni innovative a problemi che coinvolgono tutta la società civile. Siamo molto contenti che una così ampia rete di aziende e organizzazioni non profit continui a rendere possibile questa iniziativa che si avvia alla sua quarta edizione, dimostrando crescente sensibilità nei confronti degli Obiettivi di Sviluppo Sostenibile” – sottolinea Simona Torre, Segretario Generale di Fondazione Italiana Accenture.

“Di fronte all’emergenza climatica, in un difficile scenario sociale, ambientale e politico, lo sviluppo sostenibile ha bisogno dei sogni, della creatività e degli interventi radicali che solo i più giovani possono immaginare. Spetta, infatti, a loro il ruolo di promotori del cambiamento anche grazie a proposte progettuali innovative e virtuose destinate alle imprese che, in questo contesto, giocano un ruolo fondamentale. Insieme ai territori, a economie alternative, al mondo imprenditoriale, saremo in grado di immaginare – con coraggio – un mondo diverso, e affrontare le sfide urgenti della sostenibilità” – ritiene Massimiliano Tarantino, Direttore di Fondazione Giangiacomo Feltrinelli.

Secondo il Rapporto SDGs 2019 curato da ISTAT, in Italia c’è ancora molto margine di miglioramento rispetto all’impegno sui temi legati alla sostenibilità. Nel quinquennio 2012-2017 abbiamo assistito alla regressione di alcuni indicatori, ad esempio quelli legati alla povertà, al lavoro, all’agricoltura e alla salute. Un timido miglioramento si è invece riscontrato rispetto a: istruzione, parità di genere, energia sostenibile, industria e innovazione.

In questo quadro, che vede l’Italia in forte ritardo rispetto al resto d’Europa, esiste però anche un’altra faccia del nostro Paese, quella del mondo delle imprese, delle istituzioni culturali e della società civile, che si mobilita per mettere in atto la trasformazione e il cambio di paradigma richiesti dall’accordo siglato con le Nazioni Unite.

Ai giovani che hanno presentato le migliori progettualità sui temi relativi allo sviluppo sostenibile, viene offerto uno stage retribuito fino a 6 mesi presso uno dei Promotori e Partner dell’iniziativa: Accenture, Assicurazioni Generali, Assidim, Area Salus, Gruppo Cooperativo CGM, Davines, Eni, Fondazione Allianz UMANAMENTE, Fondazione Eni Enrico Mattei, Fondazione Giangiacomo Feltrinelli, Fondazione Italiana Accenture, Fondazione Sodalitas, Gruppo Feltrinelli, Gruppo Sanpellegrino, Italia Non Profit, Jobiri, Leonardo, Microsoft, Reale Foundation, Snam, Techsoup, Unicredit, Unipol, WWF.

Novità di quest’anno è l’introduzione della categoria Lavazza, che ha premiato il miglior progetto di team con una esperienza all’estero, in uno dei Paesi produttori di caffè dove Lavazza è attiva con progetti di sostenibilità. Il team vincitore, composto da Loris Savino, Stefano Savino e Daniele Tenerelli, ha presentato l’idea “Purificare acque reflue con scarti agro-industriali”, che si basa sul reimpiego degli scarti di lavorazione generati dall’industria del caffè.

Flag Counter