Newsletter
Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Milioni di utenti Facebook potrebbero aver avuto le proprie password conservate in chiaro e in server accessibili ai dipendenti dell’azienda, secondo quanto rivelato dal blog specializzato in sicurezza informatica Krebsonsecurity. A confermare la notizia è stata la stessa azienda, che in una nota ufficiale ha chiarito di aver individuato un archivio di password esposte durante un controllo delle proprie procedure di sicurezza.

Gli archivi con le credenziali degli utenti vengono conservati in formato non leggibile e in modo cifrato: ciò vuol dire che ciascuna password viene archiviata dopo essere stata modificata da un algoritmo che la rende intellegibile all’occhio umano. Tuttavia, la fonte interna all’azienda – citata da Krebsonsecurity – ha spiegato che questo sistema non avrebbe funzionato per “milioni di password”, che quindi sarebbero state leggibili ed esplorabili da 20 mila dipendenti dell’azienda.

Tramite un’inchiesta interna, Facebook starebbe ancora cercando di determinare quante password sono state esposte e per quanto tempo. Finora gli ingegneri di Menlo Park hanno individuato archivi di password non protette risalenti al 2012.

“Per essere chiari, queste password non sono mai state visibili a nessuno al di fuori di Facebook e a tutt’oggi non abbiamo trovato alcuna prova che qualcuno ne abbia abusato internamente o vi abbia avuto accesso in modo improprio”, ha scritto il vicepresidente della sicurezza di Facebook, Pedro Canahuati, in un comunicato. “Stimiamo che invieremo una notifica [del fatto, ndr] a centinaia di milioni di utenti di Facebook Lite, decine di milioni di altri utenti Facebook e decine di migliaia di utenti di Instagram”. Facebook Lite è una versione più leggera dell’app di Facebook, specificamente studiata per essere utilizzata in regioni dove la connessione è più lenta. 

Citando la fonte anonima, Krebsonsecurity ha indicato che l’indagine interna della società avrebbe finora consentito di ipotizzare che gli utenti colpiti sarebbero tra i 200 milioni e i 600 milioni. Secondo le stime più recenti, oggi gli utenti che utilizzano almeno una delle app di Facebook (comprese Instagram e Whatsapp) sono 2,5 miliardi.

In un’intervista rilasciata a KrebsOnSecurity, l’ingegnere software di Facebook, Scott Renfro, ha dichiarato: “Finora nelle nostre indagini non abbiamo trovato casi in cui qualcuno ha cercato intenzionalmente le password, né abbiamo trovato segni di un uso improprio di questi dati. A questo punto quello che sappiamo è che queste password sono state inavvertitamente registrate (visualizzate o in qualche modo apparse inavvertitamente durante l’utilizzo dei sistemi interni all’azienda, ndr), ma da questo non deriva alcun rischio reale”. Renfo ha spiegato anche che il social network intende notificare l’esposizione delle password solo nei casi in cui dovessero riscontrarne un reale abuso.

Cosa fare

Il social network ha precisato che le password sono state visibili solo ai dipendenti interni all’azienda, e rassicura quindi gli utenti. In ogni caso, si suggerisce di modificare le password di Facebook e Instagram a titolo puramente preventivo.

Un ulteriore suggerimento è di attivare la verifica a due fattori, che consiste nella ricezione di un sms contenente un codice ogni qualvolta si esegue l’accesso ai social network: in questo modo, un malintenzionato non potrebbe accedere al profilo dell’utente a meno di non conoscerne la password e di poter leggere anche i suoi messaggi.

La notizia arriva in un momento delicato per Mark Zuckerberg: la scorsa settimana il New York Times ha riferito che sarebbe in corso un’indagine federale volta a investigare presunti accordi sul trattamento di dati tra il social network e le principali aziende tecnologiche.

All’inizio di marzo invece, l’azienda è stata oggetto di critiche con l’accusa di aver utilizzato il numero di telefono degli utenti –  fornito per l’autenticazione a due fattori – per scopi commerciali.

 

 

 

Sono luoghi aperti, affollati, difficili da proteggere. E allo stesso tempo custodiscono dati preziosi e ricerche che fanno gola agli Stati. Le università sono e saranno sempre più spesso un obiettivo sensibile per gli attacchi informatici. “Proteggere un’università rappresenta una sfida unica rispetto a qualsiasi altro tipo di organizzazione”, spiega Max Heinemeyer, Director of Threat Hunting della società specializzata in cybersecurity Darktrace.

Attacco ai dati e alla ricerca

All’inizio di marzo, alcuni criminali cinesi hanno sferrato un attacco massiccio contro 24 istituti universitari, compresi il Mit, l’Università delle Hawaii e quella di Washington. Il gruppo a cui è stato ricondotta l’offensiva, Mudcarp, ha utilizzato phishing mirato (cioè mail fraudolente) nel tentativo di sottrarre ricerche militari che riguardavano missili sottomarini. Visti la complessità dell’operazione e il suo bersaglio, gli esperti hanno ipotizzato il sostegno di uno Stato, la Cina. Il valore di un attacco alle università è chiaro: le loro reti contengono una vasta gamma di informazioni sensibili, a partire da quelle (anche finanziarie) che riguardano gli studenti. É soprattutto la ricerca, però, a rendere le università target privilegiati. Ma perché gli atenei sono così difficili da proteggere?

Perché è difficile proteggere le università

1 – Reti aperte e frammentate

Prima di tutto, spiega Heinemeyer, c’è un problema di reti. Le università hanno “un ambiente IT ad accesso aperto”. Una scelta dovuta alla necessità di “scambiare liberamente le idee”, che però aumenta la superficie esposta agli attacchi. Inoltre, gli istituti universitari “spesso possiedono reti ad alto traffico e devono per questo implementare un sistema decentralizzato, in cui le diverse facoltà sono responsabili della sicurezza della propria porzione specifica di rete”. Un ambiente più diffuso e frammentato, quindi, è più difficile da controllare.

2 – Studenti e dispositivi

Gli studenti e le personale che si connettono alla rete ogni giorno è un altro problema. Non solo per i numeri assoluti, ma perché gli utenti accedono anche con i propri dispositivi, cui si aggiunge un crescente numero di oggetti dell’IoT. “Il flusso continuo di studenti nel campus – afferma Darktrace – aumenta la difficoltà di distinguere tra le minacce autentiche alla sicurezza e le attività benigne”.

3 – Meno attenzione ai rischi

La cultura dell’accesso aperto ha anche un altro effetto collaterale: “Finisce per influire negativamente sull’atteggiamento degli utenti nei confronti del rischio”. Si sentono cioè meno responsabili delle loro azioni e hanno un comportamento più disinvolto. “In altre parole – spiega Heinemeyer – gli utenti delle reti universitarie hanno maggiori probabilità di cliccare su link o allegati di posta elettronica sospetti”. E non è un caso che il recente attacco abbia utilizzato il phishing. Tutto questo “porta le università a presentare una superficie di attacco ancora più estesa di quella delle aziende private”.

 

Le possibili soluzioni

Come se ne esce? Come in qualsiasi ambiente connesso, il rischio zero non esiste. Per Heinemeyer, la soluzione per ridurre il pericolo non è “costruire barriere perimetrali attorno alle reti dei campus”. I muri informatici non bastano perché, per propria natura, le università hanno le porte spalancate e – di conseguenza – un perimetro che cambia di continuo, così come cambiano gli studenti e i loro dispositivi.

“La chiave – afferma l’esperto di Darktrace – è quindi raggiungere una visibilità totale all’interno della rete e neutralizzare gli attacchi che sono già in corso”. Un obiettivo non semplice da raggiungere: “Cercando solo le minacce conosciute, gli strumenti convenzionali da soli molto probabilmente non saranno in grado di identificare il prossimo attacco rivolto alle università nel mondo. I sistemi di sicurezza basati sull’intelligenza artificiale, invece, imparano a distinguere la differenza tra comportamento normale e anomalo per ciascun utente, dispositivo e rete, consentendo di rilevare e rispondere autonomamente alle sottili anomalie che indicano un attacco informatico in corso”. “È quindi di importanza capitale – conclude Heinemeyer – che le università imparino la lezione prima che sia troppo tardi”.

È giunto oggi l’annuncio di Apple riguardo un nuovo programma di alfabetizzazione a sostegno di diverse organizzazioni no-profit tra Stati Uniti e Europa che già operano nel settore come News Literacy Project (NLP) e Common Sense negli Stati Uniti e l’Osservatorio Permanente Giovani-Editori in Italia.

Entrambe le realtà riceveranno il supporto economico di Apple per un programma di alfabetizzazione digitale, ovvero non solo la semplice comprensione del testo ma lo sviluppo si una coscienza critica quando seduti davanti al computer. “La comprensione delle notizie è vitale per sostenere una stampa libera e una democrazia prospera, e siamo orgogliosi di collaborare con organizzazioni in prima linea per questa battaglia”, ha affermato Tim Cook, CEO di Apple, che continua “Siamo rimasti colpiti dall’importante lavoro svolto da News Literacy Project, Common Sense e Osservatorio, che consente ai giovani di essere cittadini attivi e impegnati”.

Coinvolta nel progetto anche Apple News e sul sito dell’azienda di Cupertino a parlare è il caporedattore Lauren Kern: “Apple News si impegna a presentare giornalismo di qualità da fonti attendibili. Siamo entusiasti che Apple stia supportando queste importanti organizzazioni per formare la prossima generazione su come cercare informazioni accurate e affidabili in un panorama di notizie sempre più complicato”.

“Siamo grati per l’impegno di Apple a combattere la disinformazione e sostenere un giornalismo di qualità”, ha dichiarato Alan C. Miller, fondatore e CEO della PNL, un’associazione no profit nazionale educativa che consente agli insegnanti di educare gli studenti delle scuole medie e superiori alle competenze di cui hanno bisogno per diventare “consumatori attivi di notizie”. A prendere parola anche Andrea Ceccherini, fondatore e CEO di Osservatorio Permanente Giovani-Editori, realtà indipendente che da 18 anni si occupa di quella che chiama “alfabetizzazione mediatica”. 

“La nostra missione – dice Ceccherini – è aiutare i giovani a sviluppare capacità di pensiero critico confrontando diverse fonti di informazioni di qualità” e continua “La nostra ambizione è quella di aiutare a formare i cittadini, aprendo sempre più la nostra società a una cultura di dibattito e confronto civile, che è la base di ogni democrazia sana”. Cittadini meglio informati sono anche cittadini capaci di prendere decisioni più giuste, questo in una realtà solo conseguenza di quella virtuale, diventa una necessità di primaria importanza.

C’era una volta TomTom, dominatore del mercato dei navigatori fino a diventarne sinonimo. Poi arrivano gli smartphone e Google Maps e la società va in affanno: in poco più di un anno, tra la fine del 2007 e l’inizio del 2009, il titolo perde il 95% del proprio valore. Precipita da quasi 50 a meno di 2,3 euro. Le strade, a quel punto, diventano due: fallire come altri ex leader incapaci di tenere il passo dell’innovazione o trasformarsi. Essere quello che Kodak è stata per la fotografia o cambiare le coordinate e destinazione.

Davide e la guida autonoma

Golia non è morto ma si è ritrovato Davide. Google Maps fa capo a una società da 825 miliardi di dollari capitalizzazione; TomTom di miliardi ne vale 2. Un anno e mezzo fa ha tagliato 136 posti di lavoro, abbandonato il mercato del wearable (nel quale si era tuffato senza successo) e venduto per un miliardo a Bridgeston la divisione “Telematics” per la gestione delle flotte auto. Obiettivo: tornare a concentrarsi sulle mappe e raccogliere la sfida delle auto a guida autonoma. Che bisogno c’è di un navigatore se non c’è un umano volante? Nessuno. Ma serve comunque (e ancor di più) una tecnologia che dica dove andare.

Oggi TomTom, ha spiegato la società a Venturebeat.com, ha 800 milioni di persone che, più o meno consapevolmente, utilizzano i suoi prodotti. E raccoglie dati da 20 miliardi di avamposti digitali. Anche se non si vedono più molti navigatori incollati con una ventosa al parabrezza, il marchio è infatti l’anima di servizi come Uber, Apple Maps, Bing Maps e Azure (le mappe e il cloud di Microsoft). Collabora con case quali Nissan, Fiat Chrysler e Volkswagen. E il 6 marzo ha annunciato un accordo con dieci produttori di automobili per lo sviluppo di mappa in alta definizione, aggiornate in tempo reale.

È proprio questo uno dei campi che più troverà applicazioni nella guida autonoma. Quando le macchine viaggiano da sole, devono obbedire una rappresentazione più precisa di distanze, spazi ed elementi circostanti, come i segnali stradali. Come ha spiegato TomTom a VentureBeat, non tutto può essere visto dai sensori montati sulle auto. I sensori non vedono dietro l’angolo o attraverso il tir che hanno davanti. Ed è qui che entrano in gioco le mappe.

Come reggere a Google

Google resta l’arci-nemico. Come può reggere reggere una società che vale 400 volte meno? Prima di tutto lavorando su una maggiore specializzazione. TomTom è sempre a bordo. Le mappe di Big G sono invece spesso usate alla guida, ma raccolgono informazioni dagli smartphone che si hanno in mano mentre si cammina, si pedala. O anche mentre si sta sul divano, programmando i propri spostamenti. In altre parole: Google Maps vede smartphone che si spostano, ma non distingue tra un podista e una Panda. È uno dei motivi per cui Mountain View sviluppa anche prodotti pensati solo per le vetture, come Android Auto. Non è solo un servizio più comodo ma anche un modo per ottenere dati di navigazioni più “puliti”.

La seconda carta è la privacy. Non perché TomTom sia il bene e Google il male: è, più prosaicamente, questione di modelli di business. La società americana campa, prima di tutto, di pubblicità. Cioè di informazioni degli utenti sfruttate per fornire annunci più mirati. TomTom, come altre compagnie simili (come Here, frutto della collaborazione tra Audi, BMW e Daimler) non incassa dalla pubblicità ma dalla vendita del servizio. Ed è quindi meno esposto al tema della privacy. TomTom ha provato a esplorare anche un altro campo: lo sviluppo di app.

Lo scorso luglio, Google Maps ha ritoccato le tariffe del proprio kit per gli sviluppatori (Sdk): fornisce alcune risorse gratuite e altre che si pagano oltre una franchigia di 200 dollari al mese. Passano due mesi e TomTom sceglie di mettere a disposizione una propria cassetta di attrezzi digitale, dando agli sviluppatori accesso a mappe e informazioni sul traffico. È disponibile sia per Android che per iOS ed è ad accesso gratuito: si paga per funzionalità premium e (in proporzione) in base al traffico di un’applicazione.

Due strutture di costi diverse per due obiettivi diversi: Google è decisa a guadagnare dalle grandi aziende (che sforano facilmente la franchigia); TomTom punta anche ai piccoli perché più sono le applicazioni che utilizzano la sua mappatura e maggiore è il numero degli “avamposti” che raccolgono dati. Sono l’acqua con cui innaffiare la crescita dei prodotti più evoluti, anche sulle vetture a guida autonoma. I navigatori sono morti, la navigazione è più utile che mai.

Ci si aspettava una console, e invece è arrivata una rivoluzione. L’annuncio di Stadia, il nuovo servizio di Google per il mondo del gaming, rischia di segnare davvero la storia dei videogame.

In occasione della Game Developer Conference di San Francisco l’azienda dietro il motore di ricerca ha svelato la sua vision per quanto riguarda il mondo dei videogiochi: addio console, addio dischi e file da scaricare, addio differenze tra piattaforme mobile e fisse. E tutto questo entro il 2019 in Usa, Canada, Gran Bretagna e gran parte dell’Europa (forse anche Italia).

Cosa è Stadia

Stadia sarà un servizio in cloud: permetterà cioè di collegarsi e giocare da qualsiasi dispositivo, a patto che questo sia collegato alla rete con una connessione ad alta velocità. Cade per sempre la distinzione tra i dispositivi: lo stesso gioco sarà giocabile dal pc, dallo smartphone, dal tablet e dalla smart tv cui connettere un controller in wifi, anche questo presentato da Google. Anzi, sarà possibile spegnere il proprio computer e riprendere a giocare dallo stesso punto esatto su cellulare.

Cosa c’è di rivoluzionario

L’aspetto che forse più degli altri ha stupito nella presentazione di Google è la trasformazione dei videogiochi che, per la prima volta, diventano un link. Per giocare a un titolo domani basterà cliccare su un bottone su un sito, su un tweet, alla fine di un trailer su YouTube, per accedere in pochi secondi a una sessione di gioco, addirittura in quel punto esatto mostrato dal video o condiviso con noi da un amico o da un influencer. Scompare la necessità di scaricare un file, installare il gioco o caricare un disco insomma.

Tra le funzioni mostrate da Google c’è anche la possibilità di partecipare a un match online cliccando su un bottone e “mettendosi in fila”: nel video mostrato alla Gdc ai lati di un video su YouTube è comparso un tasto che permetteva agli utenti di entrare in pochi secondi in una partita di basket ad esempio. Da questo punto di vista le possibilità di interazione tra utenti e influencer crescono come non mai, come le sfide per gli sviluppatori che dovranno inserire nei loro titoli anche queste nuove modalità di fruizione.

Dal punto di vista tecnico, Stadia si presenta subito come all’avanguardia su tutti i fronti: supporto alla grafica 4k con 60 frame al secondo già al momento del lancio, con l’intenzione a breve di supportare anche gli 8k e i 120 frame al secondo. Inoltre i server di Google, distribuiti in 200 paesi del mondo, offrono una garanzia unica per quanto riguarda i tempi ridotti di latenza, indispensabili per poter giocare senza frustrazioni e ritardi nel segnale.

I dubbi

Non mancano tuttavia i punti interrogativi su Stadia. Il primo tra tutti è il prezzo: non è stato annunciato se servirà un abbonamento per usare Stadia e quanto costerà. E poi c’è l’incognita numero uno quando si parla di videogiochi: i videogiochi appunto. Al momento non si sa infatti quali giochi saranno disponibili per Stadia e, nonostante la presenza sul palco di alcuni sviluppatori anche importanti (tra cui i creatori di Doom), nulla si sa su quali titoli dei franchise più famosi saranno disponibili su Stadia e che tipo di rapporti, anche economici, ci saranno tra Google e i vari studios. Sarà inoltre interessante vedere come intendono reagire i grandi player dell’industria, primi tra tutti i produttori delle console come Sony, Microsoft e Nintendo. La sfida di Stadia è stata lanciata innanzitutto a loro.

Apple non aspetta l’evento del 25 marzo. Sul sito ufficiale sono comparsi due nuovi iPad: Mini e Air. Il palco dello Steve Jobs Theatre sarà quindi dedicato alla piattaforma di streaming, mentre i tablet si devono accontentare di un lancio senza fanfare. Nella mattinata del 18 marzo, l’Apple Store online non è stato raggiungibile per alcune ore. “Torniamo subito. Il tempo di aggiornare l’Apple Store e ci rivediamo qui”, si leggeva nel messaggio presente sul sito italiano. Indizio chiaro dell’arrivo di nuovi dispositivi.

Com’è l’iPad Mini

L’iPad Mini è comparso in un tweet di Tim Cook. Insolito come il lancio dei nuovi dispositivi: il Ceo tiene in una mano il piccolo di casa, con su scritto “hello”. Una foto per sottolineare le novità principali: dimensioni contenute e compatibilità con Apple Pencil, il pennino digitale di Cupertino.

L’iPad Mini ha un design conservativo, quasi vintage. Le cornici sono pronunciate come sull’iPad base e non estremamente ridotte come quelle del Pro. Il dispositivo è animato dal chip A12 Bionic, ha fino a 256GB di archiviazione e ha un display Retina da 7,9 pollici, con 3 milioni di Pixel .

La Mela definisce l’iPad Mini come un dispositivo “più che portatile, tascabile”. Pesa appena 300 grammi ed è spesso 6,1 millimetri (meno di un iPhone). Promette 10 ore di energia con una ricarica e ha connettività 4G Lte. Due le fotocamere: una frontale e una posteriore. Prezzo: si parte dai 459 per al versione da 64 GB e solo Wi-fi per arrivare a 769 euro (256 GB e aggiunta di rete cellulare).

pic.twitter.com/Iqz1MHTg1p

— Tim Cook (@tim_cook)
18 marzo 2019

Com’è l’iPad Air

L’iPad Air ha un chip A12 Bionic, un display Retina da 10,5 pollici ed è compatibile con Apple Pencil. In sostanza è una versione extra-large del Mini, con dimensioni che superano anche quelle dell’iPad base (9,7 pollici). In più, rispetto la fratello minore da 7,9 pollici, può essere combinato con una tastiera che lo rende un 2-in-1. L’Air (così come il MacBook che porta lo stesso nome) punta sulla leggerezza: 500 grammi e spessore di 6,1 millimetri. È disponibile in tre colori (gli stessi del Mini): argento, grigio siderale e oro. Prezzo a partire da 569 euro per la versione da 64GB e connessione Wi-Fi fino agli 879 euro per 256 GB e aggiunta di rete cellulare.

Gli iPad lasciano il palco ai servizi

Lanciando i propri dispositivi adesso e senza un evento specifico, Apple invia alcuni segnali. Gli iPad erano attesi entro metà 2019, ma sono già disponibili alla fine del primo trimestre. Una scelta che punta a rinnovare in fretta la propria gamma hardware, con l’esigenza di sostenere le vendite.

Non a caso, sin dall’inizio, sia per Air che per Mini c’è la possibilità di “rottamare” un vecchio iPad, con benefici fino a 292 euro. È anche il segnale di una società che non può più permettersi – come un tempo – mesi di silenzio tra un iPhone e l’altro. Come a dire: ci siamo e ci stiamo provando. Ma con la piena consapevolezza che non c’è più quell’attesa liturgica che ha accompagnato la rivelazione dei nuovi dispositivi Apple.

Per quanto possa sembrare paradossale – quindi – l’arrivo degli iPad (così e adesso) è il segno di quanto l’hardware sia al momento secondario. Basso profilo, tempi stretti, dispositivi che completano la gamma senza avere la pretesa di rivoluzionarla: gli iPad non vogliono rubare spazio ai servizi. Per quanto non sia escluso che il 25 marzo si parlerà anche dei tablet, Cupertino ha deciso che all’evento ci dovrà essere un protagonista assoluto: la piattaforma di streaming. È quello che serve. Lo dicono i numeri: tra ottobre e dicembre 2018, gli iPad hanno generato 6,7 miliardi. E nonostante la loro resilienza (+17% anno su anno), non reggono il confronto con i servizi. Che non sono esposti alle oscillazioni stagionali tipiche degli hardware, incassano di più (10,9 miliardi) e crescono più in fretta (+19%).     

 

Tutto pronto a San Francisco per la nuova edizione della Gdc, la ‘Game Developers Conference‘ che negli ultimi anni è riuscita a ritagliarsi un ruolo centrale nel mondo dell’industria videoludica. Dal 18 al 22 marzo, presso il Moscone Center della città californiana, sviluppatori e big del settore si incontreranno e presenteranno le novità a cui stanno lavorando a un pubblico di addetti ai lavori.

Quest’anno tutti gli occhi sono però puntati su una data: il 19 marzo, ore 19 in Italia. È prevista infatti per quell’ora la conferenza di Google che potrebbe segnare una svolta per tutto il settore. Di certo al momento c’è solo che il colosso di Mountain View presenterà qualcosa, ma il messaggio di annuncio del suo keynote, “All will be revealed”, non fa altro che aumentare le domande e la curiosità.

I rumors della stampa americana, di settore e non solo, prevedono una grossa notizia: Google potrebbe infatti, il condizionale resta d’obbligo, presentare una sua console di videogiochi ed entrare ufficialmente nel business del gaming dalla porta principale.

Conosciuta con il nome in codice di ‘Project Yeti’, di questa possibile console di Google si parla ormai da circa un anno, e potrebbe essere un hardware con tanto di controller dedicato ma con profonde differenze rispetto ai prodotti attualmente sul mercato. Yeti sarebbe infatti dedicata al gaming in streaming, la nuova frontiera del settore su cui anche le altre grandi aziende si sono lanciate negli ultimi anni. Invece di disporre del classico gioco sulla propria console, su supporto fisico o scaricato, il gaming in streaming prevede che l’utente finale si colleghi a un servizio in cloud e giochi grazie alla sua connessione a internet: il gioco non è insomma in suo possesso e anche l’hardware che elabora la grafica e reagisce ai suoi comandi non è il suo, ma si tratta di un server a chilometri di distanza.

La console di Google sarebbe quindi un hardware molto semplice che si limiterebbe a fare da interfaccia tra l’utente e il servizio di cloud, senza però avere particolare capacità computazionale: di conseguenza potrebbe avrebbe un prezzo molto basso. A dare credito all’arrivo di Google nel settore c’è anche l’esperienza che l’azienda ha maturato di recente con il suo servizio ‘Project Stream’: un test riservato a pochi utenti statunitensi che hanno potuto giocare all’ultimo ‘Assassin’s Creed Odyssey‘ di Ubisoft direttamente dal browser del proprio computer senza scaricare il gioco. Esperimento che, a giudicare dai video che circolano sul web, ha dato ottimi risultati.

Leggi anche: Quanto tempo passiamo ai videogiochi

Google non sarebbe in ogni caso la prima azienda a interessarsi a questo settore di mercato; sempre alla Gdc, Microsoft presenterà il suo servizio ‘Project xCloud’ per giocare in streaming anche su mobile, mentre Sony ha da poco lanciato anche in Italia ‘PlayStation Now‘ che permette di accedere a un parco di oltre 600 giochi in streaming pagando un abbonamento mensile. Secondo altri rumors inoltre, starebbero lavorando a prodotti simili anche colossi come Amazon e Apple.

La sfida di tutte queste aziende è quella di diventare la “Netflix dei videogiochi”: fornire cioè, magari attraverso un abbonamento mensile, l’accesso a un ampio numero di titoli. Non mancano ovviamente le incognite: per far funzionare un servizio del genere serve un grosso numero di server ben distribuiti nel mondo per ridurre al minimo i ritardi nella trasmissione (lag) che in un videogioco possono causare la sconfitta in una partita. Non a caso i nomi dei big al lavoro su questi servizi sono quelli dei proprietari delle più grandi server farm al mondo.

Di più: la buona riuscita di prodotti come questo dipende anche dalla velocità delle connessioni a internet degli utenti finali che spesso, e l’Italia ne è un esempio, se lontani dai grossi centri sono esclusi da connessioni capaci di sostenere una trasmissione di dati importante come quella necessaria a giocare in streaming a un videogame di nuova generazione.

Il boom del gaming da dispositivi mobile guida la crescita del settore dei videogiochi, al punto che il 26% delle ore spese da mobile è destinato al gaming. Anche le abitudini di gioco sono in evoluzione: non si gioca più solamente su PC o console, ma anche su smartphone e tablet, particolarmente apprezzati soprattutto per giocare mentre ci si sposta. Secondo il rapporto di Ericsson sui videogiochi, entro il 2023 il 54% degli intervistati giocherà dal proprio smartphone (percentuale che scende al 37% per quanto riguarda i tablet, al 39% per le console e al 46% per i PC).

Per quanto riguarda i momenti e i luoghi in cui gli utenti preferiscono giocare, casa propria durante le ore serali (43%) o notturne (47%) rimane ancora il posto preferito, a cui si affiancano però altre occasioni di gioco, come il tempo trascorso sui mezzi di trasporto per i pendolari (21%), la scuola o l’ufficio (16%), in ristoranti o bar (14%) o a casa di amici (13%).

Leggi anche: Google vuole entrare nel mon do dei videogiochi

Chi pensa che i videogiochi siano ancora solo per ragazzi molto giovani dovrà ricredersi: i teenager, infatti, percepiscono il gaming come un’attività per passare il tempo; chi invece ritiene che il gaming sia un’attività molto importante nella vita quotidiana sono gli utenti nella fascia di età che va dai 25 ai 34 anni.

La Realtà Virtuale è la “next big thing” nel mondo del gaming, grazie alla possibilità di vivere un’esperienza di gioco immersiva a 360 gradi. La mancanza di visori di alta qualità a prezzi accessibili unita alla mancanza di validi titoli di videogiochi VR sta però limitando la diffusione della VR in questo ambito. Anche la Realtà Aumentata potrà beneficiare della disponibilità di giochi più immersivi e di visori più economici con una maggiore durata delle batterie.

Soprattutto, per il 32% degli intervistati la reale spinta per l’uso dell’AR arriverà quando non sarà più necessario dover tenere in mano un tablet o uno smartphone per giocare. Infine, gli intervistati apprezzerebbero la possibilità di poter avere a disposizione gli oggetti virtuali creati con un videogioco al termine della sessione di gioco. Il 5G, garantendo latenze prossime allo zero, altissima affidabilità della connessione anche in movimento e maggiori capacità e velocità, promette di dare un forte impulso all’utilizzo di VR e AR nell’industria del gaming.

Arriva anche in Italia Code Your Future, il corso gratuito di programmazione nato a Londra per iniziativa di una organizzazione non profit e dedicato a rifugiati, richiedenti asilo e persone in difficoltà economica. Da oggi e fino al 7 aprile sono aperte le iscrizioni per 20 posti. Le lezioni inizieranno il 4 maggio e si terranno ogni sabato, fino a dicembre, negli spazi di LUISS Enlabs (l’acceleratore di startup nato dalla joint venture fra l’Università Luiss ed LVenture) alla stazione Termini. Il programma prevede una formazione informatica in ambito HTML, CSS, Java Script, React and Node assieme a corsi d’inglese e al potenziamento delle competenze necessarie ad avere successo nel mondo del lavoro.

“Una formazione molto pratica, curata da insegnanti che sono programmatori professionisti, che sanno cioè di cosa c’è bisogno” ha spiegato Germán Bencci, founder di Code Your Future. “Crediamo che il lavoro sia il modo più veloce per dare dignità ad una persona e raggiungere l’integrazione nella società. Le nuove professionalità digitali sono meritocratiche e senza frontiere perché si basano su competenze concrete, in modo che chiunque, proveniente da qualsiasi background socio-culturale, possa avere le stesse opportunità” ha spiegato sempre Germán. Venezuelano, di base a Londra, con una lunga esperienza di lavoro in Samsung, Bencci ad un certo punto della sua vita ha sentito la necessità di riflettere sull’impatto sociale della tecnologia. “Ho capito che il coding era la chiave giusta trovare lavoro in questo settore”. Le imprese hanno “bisogno di persone che sappiano programmare, con esperienza pratica e un portfolio di progetti, anche senza laurea”. Così nel 2016 è nata Code Your Future e “ha già ottenuto risultati significativi con il suo programma: il 70% dei partecipanti ha trovato una nuova occupazione nell’arco di sei mesi. Alcuni ora lavorano in BBC, Financial Times, Live Nation, in startup”.

A sostenere l’iniziativa ci sono i numeri e in particolare la carenza sul mercato del lavoro di nuove professionalità in ambito digitale: solo il 3% degli studenti universitari in Italia è laureato in nuove tecnologie e solo il 10% delle aziende utilizza un ecommerce per vendere i propri prodotti o servizi. Al tempo stesso la domanda di nuove professionalità specializzate nel digitale è in costante crescita: la Commissione Europea ha stimato in 800 mila il numero dei nuovi posti di lavoro necessari entro il 2020 in questo ambito. In Italia sono oltre 200 mila i lavoratori con specifiche competenze informatiche e digitali richiesti dalle imprese entro il 2023. “Code Your Future – ha dichiarato Luigi Capello, CEO di LVenture Group – può rappresentare una grande occasione per le nostre startup, continuamente alla ricerca di nuovi talenti da inserire nei loro team”.

Arriva anche in Italia Code Your Future, il corso gratuito di programmazione nato a Londra per iniziativa di una organizzazione non profit e dedicato a rifugiati, richiedenti asilo e persone in difficoltà economica. Da oggi e fino al 7 aprile sono aperte le iscrizioni per 20 posti. Le lezioni inizieranno il 4 maggio e si terranno ogni sabato, fino a dicembre, negli spazi di LUISS Enlabs (l’acceleratore di startup nato dalla joint venture fra l’Università Luiss ed LVenture) alla stazione Termini. Il programma prevede una formazione informatica in ambito HTML, CSS, Java Script, React and Node assieme a corsi d’inglese e al potenziamento delle competenze necessarie ad avere successo nel mondo del lavoro.

“Una formazione molto pratica, curata da insegnanti che sono programmatori professionisti, che sanno cioè di cosa c’è bisogno” ha spiegato Germán Bencci, founder di Code Your Future. “Crediamo che il lavoro sia il modo più veloce per dare dignità ad una persona e raggiungere l’integrazione nella società. Le nuove professionalità digitali sono meritocratiche e senza frontiere perché si basano su competenze concrete, in modo che chiunque, proveniente da qualsiasi background socio-culturale, possa avere le stesse opportunità” ha spiegato sempre Germán. Venezuelano, di base a Londra, con una lunga esperienza di lavoro in Samsung, Bencci ad un certo punto della sua vita ha sentito la necessità di riflettere sull’impatto sociale della tecnologia. “Ho capito che il coding era la chiave giusta trovare lavoro in questo settore”.

Le imprese hanno “bisogno di persone che sappiano programmare, con esperienza pratica e un portfolio di progetti, anche senza laurea”. Così nel 2016 è nata Code Your Future e “ha già ottenuto risultati significativi con il suo programma: il 70% dei partecipanti ha trovato una nuova occupazione nell’arco di sei mesi. Alcuni ora lavorano in BBC, Financial Times, Live Nation, in startup”. A sostenere l’iniziativa ci sono i numeri e in particolare la carenza sul mercato del lavoro di nuove professionalità in ambito digitale: solo il 3% degli studenti universitari in Italia è laureato in nuove tecnologie e solo il 10% delle aziende utilizza un ecommerce per vendere i propri prodotti o servizi.

Al tempo stesso la domanda di nuove professionalità specializzate nel digitale è in costante crescita: la Commissione Europea ha stimato in 800 mila il numero dei nuovi posti di lavoro necessari entro il 2020 in questo ambito. In Italia sono oltre 200 mila i lavoratori con specifiche competenze informatiche e digitali richiesti dalle imprese entro il 2023. “Code Your Future – ha dichiarato Luigi Capello, CEO di LVenture Group – può rappresentare una grande occasione per le nostre startup, continuamente alla ricerca di nuovi talenti da inserire nei loro team”.

Flag Counter