https://www.claudioini.it/blog/

Fuchsia, il misterioso sistema operativo di Google

Compare nei repository di Mountain View un nuovo progetto software per un sistema operativo non basato su kernel Linux. Semplice esperimento, o Google immagina un futuro unificato e lontano da Android?

Nonostante qualche tentativo di unificazione poi svanito nel nulla, i sistemi operativi utilizzati da Google nei differenti ecosistemi in cui integrare i suoi servizi cloud si sono finora sempre basati sul kernel Linux: da Android, re del mercato smartphone/tablet, ai Chromebook dotati di Chrome OS, passando per i vari livelli di interazione con Android presenti nei firmware per Android Auto, Wear e gadget come Chromecast e OnHub. Inevitabili quindi gli sguardi attirati dal nuovo progetto software apparso nei repository di Mountain View, nome in codice Fuchsia, un nuovo sistema operativo su cui Google per il momento dice pochissimo, ma il cui kernel non è Linux e pare avere caratteristiche tali da adattarsi ad ognuno dei settori che coinvolgono il gigante della ricerca.

I repository pubblicati sui server Google e mirrorati anche su GitHub presentano una moltitudine di componenti da cui si può provare a ricostruire le intenzioni di BigG e speculare la direzione che seguirà il suo sviluppo. Quello principale è il microkernel Magenta, basato sul progetto LittleKernel (LK). Il principale focus dei microkernel sono le applicazioni embedded (quantità di memoria limitate, periferiche fisse e un preciso insieme di task da svolgere), ma Google ha esteso LK per adattarlo a dispositivi embedded più potenti, dotarlo del supporto alla modalità utente e di un nuovo sottosistema per la sicurezza. Magenta supporta architetture ARM a 32 e 64 bit, e x86 a 64 bit. È già possibile compilarlo e virtualizzarlo, ma i responsabili del progetto ed esperti conclamati nel settore embedded Brian Swetland e Travis Geiselbrecht hanno svelato sull'aggregatore Hacker News che Magenta gira già “abbastanza bene” su dispositivi reali come Intel NUC e il 2-in-1 Acer Switch Alpha 12. Non solo: è in arrivo anche il supporto a RaspberryPi 3, della quale è atteso il supporto ufficiale anche in Android 7.

Andando oltre a Magenta, il principale strumento di sviluppo su Fuchsia pare essere Dart, il linguaggio di programmazione general-purpose sviluppato da Google. Per la UI il toolkit incluso nei repository di Fuchsia è Flutter, capace di supportare sia Android che iOS minimizzando le differenze nella base di codice. È anche incluso Escher, motore di rendering OpenGL/Vulkan basato su effetti di luce, ombre e colore, elementi alla base di molti concetti del Material Design introdotto su Android. Complessivamente è chiara la presenza di un insieme di componenti adatti ad un intervallo eterogeneo di dispositivi, e ciò alimenta le speculazioni che vogliono Fuchsia come futuro rimpiazzo dei sistemi operativi Linux-based sviluppati da Google.Il tutto potrebbe però essere uno dei tantissimi esperimenti nati, cresciuti e morti all'interno di Mountain View senza vedere una vasta applicazione pratica. Nel frattempo è interessante notare quelle che sembrano essere due sostanziali differenze rispetto al modello di sviluppo seguito da Android. Tutto il codice è open source fin dal primo momento e sviluppato sotto gli occhi di tutti, al contrario dello sviluppo in-house di Android a cui segue il dump del codice sorgente nei repository AOSP, un rituale che si ripeterà a settembre con il rilascio di Android Nougat. Inoltre la licenza di quasi tutti i componenti di Fuchsia è la permissiva Licenza MIT invece della Apache 2 di Android, che comunque rimane per parte del kernel Magenta. In ogni caso un grosso stacco dalla viralità del coopyleft del kernel Linux, licenziato sotto GPL v2, e che potrebbe consentire in futuro ridistribuzioni proprietarie di Fuchsia.

(Credits: puntoinformatico.it)

https://www.claudioini.it/blog/

Intelligenza artificiale, le 5 preoccupazioni di Google

Una ricerca di Google, dal titolo “ Concrete Problems in AI Safety” spiega qual è la visione di Google sul futuro dell’intelligenza artificiale. Senza arrivare a una visione allarmista, ci sono comunque alcune preoccupazioni legate alla sicurezza. Sono osservazioni anche molto semplici, concrete, che però dimostrano quanto ancora questa tecnologia non sia matura. Ecco le cinque preoccupazioni principali:

1. evitare gli effetti negativi indesiderati o assicurare che i sistemi di intelligenza artificiale non danneggino l’ambiente nel perseguire i loro obiettivi

2. evitare la logica della “ricompensa” tipica del gaming, ad esempio evitare che un robot pulisca senza eliminare il disordine solo per portare a termine il suo compito

3. assicurarsi che i robot reagiscano nel modo corretto anche agli stimoli che non possono essere valutati durante la fase di training, perché troppo costosi

4. assicurarsi che i sistemi non esplorino il territorio e non facciano movimenti fuori controllo con ripercussioni negative

5. assicurarsi che i sistemi, posizionati nell’ambiente reale, riconoscano che si tratta di un luogo differente dallo spazio training

“Crediamo che l’AI possa portare grandi benefici all’umanità. Siamo convinti però che sia necessario porre grande attenzione ai potenziali rischi” dice il documento.
Il team di Google ha sollevato questioni anche sulla privacy. Come si può assicurare la privacy quando si applicano tecnologie di machine learning a dati sensibili come ad esempio quelli sanitari? Sulla correttezza: come possiamo essere sicuri che questi sistemi non discrimineranno qualcuno. Sulla security: cosa potrebbe succedere a un sistema di machine learning in caso di attacco? Sugli abusi: come prevenire che i robot non feriranno qualcuno? Sulla trasparenza: come controllare esattamente quello che i sistemi stanno elaborando. Sulle policy: come gestire le conseguenza sociali ed economiche dell’introduzione sul mercato di questi sistemi?

“Crediamo nell’importanza, nel rigore e nel lavoro di squadra nel costruire sistemi di intelligenza artificiale. Continueremo a collaborare con i gruppi di ricerca per fare progressi nell’AI” concludono i ricercatori Google.

(Credits: digitalic.it)

https://www.claudioini.it/blog/

AI e ricerche Web, il pallino di Google

Gli algoritmi di intelligenza artificiale sono sempre più importanti per le piattaforme telematiche di Mountain View, una tecnologia che la corporation considera a dir poco rivoluzionaria.

Google torna a parlare di RankBrain, la piattaforma di machine learning svelata al mondo solo l'anno scorso che però cresce di importanza all'interno del principale servizio telematico offerto da Mountain View. Grazie a RankBrain, le ricerche Web sono sempre più pertinenti alle richieste specifiche degli utenti.

L'intelligenza artificiale della nuova piattaforma è il terzo più importante fattore quando si tratta di elencare i risultati in una ricerca sul Web, conferma Google, e permette di rendere più “ragionevole” l'elenco soprattutto quando si tratta di rispondere alle richieste categorizzabili nella cosiddetta coda lunga del mercato.

A RankBrain non corrisponde però un punteggio come per il resto dei fattori consultati per il ranking delle ricerche, rivelano da Mountain View, perché si tratta di una tecnologia complessa che interviene in maniera diversa: ne deriva che non esiste la possibilità di implementare ottimizzazioni SEO in grado di avvantaggiare la popolarità di un sito Web.

(Credits: puntoinformatico.it)

https://www.claudioini.it/blog/

Google, un kill switch per le intelligenze artificiali

I ricercatori propongono lo studio di un sistema di emergenza da implementare negli algoritmi di intelligenza artificiale, un modo di garantire sempre il controllo umano anche nel caso in cui la AI diventasse troppo avanzata. O pericolosa.

Una collaborazione tra i ricercatori di Google DeepMind e del Future of Humanity Institute dell'Università di Oxford propone l'istituzione di meccanismi di sicurezza per gli agenti di intelligenza artificiale (IA), un sistema pensato per poter “spegnere” una IA nel caso in cui si comportasse in maniera poco ortodossa o peggio ancora pericolosa per gli esseri umani.

I Safely Interruptible Agents proposti dai ricercatori non hanno, almeno in teoria, la capacità di evolversi fino al punto da rifiutare qualsiasi comando esterno impartito da umani: un “kill switch” integrato nel design delle macchine intelligenti garantirà sempre la possibilità di spegnerle, un modo per evitare alla radice il sopraggiungere degli scenari apocalittici che popolano l'immaginario collettivo e la fantascienza degli ultimi decenni.

Lo studio ipotizza lo sviluppo futuro di forme di intelligenza dotate di consapevolezza, ed esplora i modi in cui sia possibile evitare che una IA troppo evoluta impari a ignorare i comandi di interruzione o spegnimento implementati dai designer umani. Anche le IA tanto avanzate da progettare a loro volta altre IA evolute sarebbero da tenere sotto stretta osservazione.Gli esempi portati dai ricercatori sono ovviamente lontani dalle apocalissi in stile Terminator, limitandosi piuttosto a descrivere robot sulla catena di montaggio che si comportano in maniera anomala e vanno spenti per evitare il sopraggiungere di “conseguenze irreversibili”.

I pericoli nascosti dietro l'evoluzione della IA sono da tempo un argomento di discussione parecchio accesa tra esperti, scienziati e dirigenti storici dell'industria tecnologica a stelle e strisce, e il campo di chi teme la nascita di una Skynet sterminatrice di uomini include già nomi di alto profilo come Stephen Hawking, Elon Musk, Bill Gates e altri.

(Credits: puntoinformatico.it)

https://www.claudioini.it/blog/

Google insegna alle sue auto a suonare il clacson

Per evitare pericoli per chi è a bordo e chi è in strada, le auto-robot imparano a strombazzare. Ma facendo attenzione a non disturbare.

Roma - Dal rapporto di maggio 2016 sulle auto senza pilota di Google, apprendiamo che l'azienda ha “insegnato” loro come usare il clacson, in caso di pericolo, per avvisare gli eventuali conducenti distratti incontrati sulla strada. Si tratta inoltre di un meccanismo che serve ad attirare l'attenzione del conducente della Google-Car, per fare in modo che ritorni alla guida manuale del veicolo in caso di bisogno.

Sempre secondo il report, l'uso del clacson non è casuale: basandosi su di un algoritmo che determina, di volta in volta come meglio utilizzare il segnalatore acustico, il sistema prova anche ad evitare di arrecare disturbo. Google sta lavorando pure su l'aggiunta di rumore ai suoi prototipi elettrici, di per sé poco rumorosi, in maniera tale che pedoni, ciclisti e persone non vedenti possano facilmente sentirne l'avvicinarsi. “Il nostro prototipo imita le caratteristiche sonore delle auto tradizionali”, si legge sempre nel report, nel senso che si modifica a seconda che l'auto stia accelerando o rallentando, proprio come avviene per le auto a combustione.

Le auto sono dotate già di un cicalino interno, usato per segnalare alle persone a bordo dell'approssimarsi di un pericolo ad esempio quando un'auto esce in marcia indietro da un passo carraio per immettersi sulla strada, oppure se un'auto invade la corsia di marcia della Google-Car. L'esigenza di un clacson esterno è dunque differente, ma se usato in maniera inappropriata rischia di confondere o distrarre le persone a bordo, tra suono interno ed esterno.

Nel report, Google sostiene che nel corso delle quasi 15mila miglia (circa 24 mila chilometri) percorse, ogni settimana, i suoi ingegneri hanno individuato utilizzi non consoni, addestrando il software ad essere più accurato nella scelta. “Abbiamo anche insegnato ai nostri veicoli a utilizzare diversi tipi di suoni, a seconda della situazione”. Ad esempio, se un veicolo devia invadendo la corsia, l'auto emette due bip brevi come succede quando ci si saluta in maniera amichevole. Se la situazione si fa più pericolosa, l'auto produce un segnale più sostenuto. “Il nostro obiettivo è di insegnare alle nostre auto a suonare il clacson come un conducente umano”, si legge ancora nel documento.

Circa lo stato degli incidenti, i dati del rapporto riferiscono che i 58 veicoli a guida autonoma di Google, 24 Lexus e 34 prototipi, hanno percorso complessivamente 1.644.154 miglia (circa 2,65 milioni di chilometri) in guida autonoma dall'inizio del progetto. Nel mese di maggio, Google segnala un incidente in cui è stato coinvolto un suo prototipo, il quale procedeva in modalità di guida manuale. Il prototipo avrebbe colpito uno spartitraffico a bassa velocità (circa 15Km/h), senza però coinvolgere altri veicoli e riportando modesti danni.

(Credits: wired.it)

Older Posts

Custom Post Images

se vuoi offrirmi un caffè per la manutenzione di questo sito!