È disponibile la versione 41.0 di Firefox. Da mercoledì 23 settembre è iniziata la distribuzione degli aggiornamenti automatici, Se Firefox non si è ancora aggiornato potete farlo manualmente seguendo le istruzioni riportate in questo articolo della KB Mozilla.
Di seguito alcune delle novità principali di questa versione, per un elenco completo fate riferimento alle note di versione in inglese.
Da questa versione Firefox Hello includerà delle funzioni di messaggistica istantanea. Per scoprire come funziona leggete questo articolo SUMO. Non avete mai utilizzato Firefox Hello? Beh, allora questo è il momento giusto per iniziare una conversazione con gli amici! 🙂 Per ulteriori informazioni potete fare riferimento a questo articolo della Knowledge Base di Firefox, SUMo per gli amici.
Ottimizzata la decodifica delle immagini, questo consentirà di migliorare notevolmente le prestazioni, su alcuni dispositivi la velocità di caricamento risulta quasi doppia rispetto al passato, soprattutto durante lo scrolling delle pagine.
Riassumendo a grandi linee, la risoluzione del Bug. 77999 introduce un processor comune a tutte le pagine per gestire le regole di stile condivise. Prima accadeva che per ogni documento si dovesse impegnare memoria per le regole di stile, anche nel caso queste regole fossero comuni a tutti i documenti, ora invece c’è un processor centrale a cui i documenti possono accedere per le regole di stile. Questo implica che per le regole comuni a tutti i documenti (come ad esempio le personalizzazioni in userContent.css, le regole applicate di default e le regole di Adblock) si faccia una sola allocazione anziché farne una per ciascun documento. Tenete presente che in una scheda ci possono essere più documenti, a seconda di quanti ne vengono richiamati tramite iframe (il caso tipico è rappresentato dai pulsanti di condivisione sui social). Mentre il contributo delle regole di default e delle, eventuali, personalizzazioni via userContent.css sono irrisori e trascurabili, il foglio di stile caricato da Adblock (sostanzialmente per nascondere i banner pubblicitari) è abbastanza grande e incide notevolmente sulla memoria utilizzata (per qualche dato e per approfondire l’argomento si faccia riferimento a questo articolo di Nicholas Nethercote).
Per quanto riguarda Account Firefox, ora è possibile aggiungere un’immagine al proprio profilo.
Ora alle applicazioni che utilizzano il protocollo WebRTC (come ad esempio Firefox Hello) è richiesto il Perfect Forward Secrecy (PFS). Il Perfect Fowrward Secrecy protegge le proprie video chat non consentendo a un eventuale aggressore che dovesse appropriarsi della chiave privata del server di poter decifrare le chiavi generate per cifrare le singole conversazioni. Hello utilizza già il PFS, con questa modifica qualsiasi video chat basata su WebRTC è obbligata a implementarlo.
Migliorato il supporto IME (utilizzato per l’inserimento di caratteri orientali) nei sistemi Microsoft a partire da Windows Vista e successivi, grazie all’API Text Services Framework (TSF).
Da questa versione non è più disponibile la preferenza browser.newtab.url in quanto troppo spesso utilizzata da software terzi per aprire pagine indesiderate. È comunque possibile modificare la pagina caricata all’apertura di una nuova scheda tramite l’estensione New Tab Override.
Dal punto di vista degli sviluppatori web la novità più interessante è rappresentata dall’introduzione di un’API JavaScript mediante la quale è possibile, fra le altre cose, inviare del testo alla clipboard. Uno dei motivi per cui su molti siti si ricorre ancora alla tecnologia Adobe Flash è proprio per effettuare l’operazione di copia negli appunti (ad esempio su Github). Questa novità consentirà sempre più di abbandonare il plugin Flash e creare siti e applicazioni che sfruttino i soli standard web (HTML5, CSS e JavaScript). Per ulteriori informazioni su questa nuova API Javascript leggete l’articolo di Mozilla hacks “Flash free clipboard for the Web”, qui di seguito un piccolo esempio.
Qui un altro esempio che copia negli appunti il testo di questo articolo:
Per le altre novità riguardanti gli sviluppatori, oltre che alle note di versione in lingua inglese, vi rimandiamo agli articoli di Moz Hacks e MDN che trattano in dettaglio questi argomenti.
Per qualunque problema con il nuovo aggiornamento o qualsiasi altro di natura generale con Firefox venite a trovarci sul forum, faremo del nostro meglio per aiutarvi a risolverlo.
Come tutti gli ambienti di programmazione che non richiedono una gestione esplicita della memoria da parte del programmatore, anche SpiderMonkey (il motore JavaScript di Firefox) ha bisogno di un Garbage Collector, cioè di uno strumento che si occupi di analizzare lo heap per liberare le risorse non più utilizzate. Non esiste un metodo univoco o migliore degli altri per l’implementazione di un Garbage Collector e la scelta di quale algoritmo utilizzare dipende dagli obiettivi che ci si propone di raggiungere: implementazioni più “leggere” consentono un minor impiego di risorse macchina a scapito però di una maggiore frammentazione della memoria. Al contrario implementazioni più complesse richiedono un maggiore tempo di esecuzione ma consentono di evitare la frammentazione dello heap.
Gli sviluppatori di Firefox hanno adottato nel corso degli anni diverse implementazioni del Garbage Collector che hanno tenuto conto della sempre maggiore incidenza del codice JavaScript nelle pagine web. Inizialmente il Garbage Collector utilizzava un algoritmo di tipo reference counting, per poi passare a partire dal 2010 all’implementazione di un Garbage Collector di tipo conservativo mark e sweep. Entrambi questi algoritmi richiedono pochissime risorse computazionali, ma hanno il difetto di produrre una frammentazione dello heap.
È così che dal 2013 si è passati , grazie all’implementazione dell’exact stack rooting, a un’implementazione di un Garbage Collector di tipo generazionale sempre basato sul tracing. Grazie a questa modifica del codice è stato poi possibile implementare lo strumento di compattazione. Nell’articolo è spiegato il funzionamento della compattazione, quando viene eseguita, si analizza il guadagno di memoria che si riesce a ottenere e vengono discusse delle idee per migliorarlo ulteriormente.
Per un approfondimento delle tecniche di Garbage Collection si può consultare questo articolo in italiano che tratta l’argomento in generale e approfondisce il caso del Garbage Collector della Java Virtual Machine.
Sommario
La compattazione è una nuova funzione del Garbage Collector di Firefox, disponibile a partire dalla versione 38, che consente di ridurre la frammentazione esterna nello heap JavaScript. L’obiettivo di questa funzione è ottimizzare il consumo di memoria in generale oltre che gestire con maggiore efficienza i casi di memoria insufficiente. Al momento è stata implementata unicamente la compattazione degli oggetti JavaScript, uno solo tra i vari tipi di celle dello heap elaborate dal Garbage Collector.
Il problema
Lo heap JavaScript è composto da 4000 blocchi di memoria denominati arene, ciascuna delle quali è suddivisa in celle di dimensioni prestabilite. Arene diverse sono utilizzate per memorizzare differenti tipi di celle e ciascuna arena contiene celle dello stesso tipo e della stessa dimensione.
Lo heap contiene diversi tipi di celle, incluse quelle destinate agli oggetti JavaScript, le stringhe e i simboli, ma anche celle utilizzate per dati interni come script (per memorizzare il codice JavaScript), shape (per memorizzare la rappresentazione degli oggetti grafici e delle loro proprietà) e jitcode (codice JIT compilato). Di tutte queste, solitamente le celle utilizzate per gli oggetti JavaScript sono quelle che utilizzano la maggiore quantità di memoria.
Un’arena non può essere liberata se al suo interno c’è una cella che contiene dati in uso. Celle allocate nello stesso periodo possono avere dei cicli di vita differenti, talvolta accade quindi che nello heap si trovino più arene ciascuna contenente solo poche celle attive. Lo spazio libero di ciascuna arena può ancora essere impiegato per allocare nuove celle dello stesso tipo, ma sarà inutilizzabile per celle di tipo diverso o per essere reimpiegato dal sistema in caso di memoria insufficiente.
Di seguito è mostrato un diagramma semplificato dello heap con arene che contengono due diverse tipologie di celle.
Si noti che se fosse possibile utilizzare lo spazio libero nell’arena 3 per allocare le celle dell’arena 5, si otterrebbe un’intera arena libera.
Misurare lo spazio inutilizzato
È possibile conoscere lo spazio utilizzato da queste celle non più attive visitando la pagina about:memory e premendo il tasto MeasureL’ammontare complessivo di memoria per ciascun tipo di cella è visualizzato nella sezione js-main-runtime-gc-heap-committed/unused/gc-things. Per maggiori informazioni su come interpretare i rapporti della pagina about:memory consultare questo articolo su MDN.
Di seguito uno screenshot dell’intera sezione js-main-runtime-gc-heap-committed con la compattazione del Garbage Collector disattivata che mostra la differenza tra spazio utilizzato e non:
Ho effettuato misurazioni approssimative dell’utilizzo di memoria durante la mia normale navigazione con la compattazione sia attivata che disattivata per osservare le differenze. La procedura per ottenere questi dati è descritta nell’ultima sezione dell’articolo. I dati sono stati rilevati con una cinquantina di schede aperte, tra cui Google Mail, Google Calendar, varie pagine di Bugzilla e altri siti. Questo è il risultato ottenuto:
Totale allocazioni esplicite
Celle inutilizzate
Prima della compattazione
1324,46 MiB
69,58 MiB
Dopo la compattazione
1296,28 MiB
40,18 MiB
È possibile osservare una riduzione delle allocazioni esplicite di 29,4MiB (mebibytes). Si tratta solo del 2% rispetto al totale delle allocazioni complessive, ma considerando solo lo spazio occupato dall’allocazione di oggetti JavaScript (al momento gli unici soggetti a compattazione) sale a oltre 8%.
Funzionamento della compattazione
Per recuperare lo spazio inutilizzato il Garbage Collector dovrebbe essere in grado di spostare le celle fra differenti arene, in modo da concentrare le celle attive in un numero limitato di arene e liberare le altre. Certo è più facile a dirsi che a farsi, perché per ogni cella spostata bisognerebbe riaggiornare anche i relativi puntatori. Anche un solo puntatore non aggiornato potrebbe bastare a causare un crash di Firefox.
Questa operazione inoltre è molto dispendiosa in termini di risorse perché richiede l’analisi di un numero non irrilevante di celle alla ricerca dei puntatori da aggiornare. Per questo motivo l’idea è quella di procedere alla compattazione dello heap solo nei momenti in cui si disponga di poca memoria o l’utente non stia utilizzando Firefox.
L’algoritmo di compattazione è suddiviso in tre fasi:
Selezione delle celle da spostare.
Spostamento delle celle.
Aggiornamento di tutti i puntatori con riferimenti a queste celle.
Selezione delle celle da spostare
Ciò che ci proponiamo di fare è spostare il minor numero di dati possibile e di farlo senza riallocare ulteriore memoria, partendo dal presupposto che la memoria a disposizione sia già in esaurimento. Per fare questo inseriamo in una lista tutte le arene che contengono spazio libero, ordinandole in modo decrescente a seconda del numero di celle libere al loro interno. Suddividiamo la lista in due parti a partire dal punto in cui le arene della prima parte contengono abbastanza celle libere per ospitare le celle attive delle arene nella seconda parte. Sposteremo tutte le celle delle arene della seconda parte.
Spostamento delle celle
Allochiamo dunque una nuova cella da una delle arene che non subiranno spostamenti. Il passaggio precedente ci assicura che ci sia abbastanza spazio libero per effettuare questa operazione. A questo punto copiamo i dati dalla posizione iniziale.
In alcuni casi troveremo una cella con puntatori che puntano alla cella medesima: essi verranno aggiornati in questa fase. Il browser potrebbe contenere riferimenti a oggetti esterni, in questo caso utilizzeremo un hook per aggiornarli.
Dopo aver spostato una cella, aggiorneremo la locazione di memoria originale con un puntatore di reindirizzamento che faccia riferimento alla nuova posizione in modo da poterla facilmente ritrovare in seguito. Questo permetterà inoltre al Garbage Collector di identificare le celle che sono state spostate e vedremo come ciò verrà utilizzato nel successivo passaggio.
Aggiornamento dei puntatori alle celle spostate
Questa è la parte più dispendiosa del processo di compattazione. Nel caso più generale, non è possibile conoscere quali celle contengano dei puntatori alle celle che abbiamo spostato, quindi sembra proprio che sia necessario effettuare una scansione di tutte le celle presenti nello heap. Una tale scansione globale dello heap sarebbe davvero dispendiosa in termini di risorse macchina impiegate.
Abbiamo però alcuni metodi per ridurre le risorse impiegate. Innanzitutto si noti che lo heap è suddiviso in più zone: una zona per ogni scheda aperta e altre zone utilizzate dal sistema. Dato che, di norma, le celle non contengono mai puntatori con riferimenti a zone diverse da quella in cui si trovano, la compattazione potrà essere effettuata per zona e non su tutto lo heap. Il caso particolare di celle con puntatori a zone diverse da quella di appartenenza verrà effettuato a parte. La compattazione per zone ci consentirà di suddividere il processo in diverse sezioni incrementali.
In secondo luogo, per costruzione, esistono delle tipologie di celle che non possono contenere puntatori a altre tipologie di celle (a essere precisi ci sono alcune tipologie di celle che non possono proprio contenere dei puntatori), è quindi possibile escludere a priori alcune celle dalla ricerca.
Infine, possiamo parallelizzare questa operazione e sfruttare tutte le risorse della CPU disponibili.
È importante notare che ciò è stato reso possibile solo grazie al lavoro fatto a suo tempo implementando l’exact stack rooting, come descritto in questo articolo del blog Mozilla. Infatti è possibile spostare gli oggetti solamente conoscendo quali locazioni nello stack sono root, altrimenti si corre il rischio di sovrascrivere dei dati non correlati nello stack che potrebbero essere interpretati erroneamente come dei puntatori a celle.
Programmare l’esecuzione della compattazione
Come accennato in precedenza, la compattazione non viene effettuata a ogni ciclo di esecuzione del Garbage Collector. Allo stato attuale dell’implementazione essa viene effettuata nelle seguenti situazioni:
è stata utilizzata tutta la memoria e si cerca di fare un ultimo tentativo per liberare dello spazio utile;
il sistema operativo genera un messaggio riguardante la gestione della memoria non corretta da parte di Firefox;
l’utente non utilizza il sistema per un certo periodo di tempo (per impostazione predefinita questo periodo è attualmente di 20 secondi).
Nei primi due casi la compattazione viene avviata per scongiurare situazioni di memoria insufficiente, mentre nel terzo caso si cerca di ottimizzare la memoria a disposizione senza impattare la navigazione.
Conclusione
Spero che questo articolo sia riuscito a spiegare il problema che ci proponiamo di risolvere grazie allo strumento di compattazione del Garbage Collector e come stiamo cercando di affrontarlo.
Un inaspettato effetto positivo dell’implementazione della compattazione nel Garbage Collector è che ha rivelato alcuni errori nel tracing dei puntatori alle celle. E questo tipo di errori possono generare dei crash difficili da identificare e riprodurre e generare possibili falle nella sicurezza del browser, quindi possiamo considerarlo un ulteriore miglioramento anche da questo punto di vista.
Idee per il futuro
L’introduzione della compattazione è stata un’importante tassello per il miglioramento del Garbage Collector di Firefox, ma non è comunque finita qui. Ci sono ancora molti altri aspetti su cui possiamo concentrarci per migliorarlo ulteriormente.
Attualmente la compattazione viene effettuata solo sugli oggetti JavaScript, ma esistono molti altri oggetti nello heap e estenderla anche a questi potrebbe consentirci di ottimizzare ulteriormente la memoria utilizzata. Una domanda sorge spontanea: è possibile determinare a priori se le celle contengono dei puntatori alle celle che andremo a spostare? Se trovassimo il modo per farlo, le risorse impiegate per la compattazione verrebbero ulteriormente ridotte. Una possibile soluzione è scansionare lo heap in background, ma per farlo si renderebbe necessario individuare le modifiche effettuate alle celle dal mutator.
L’attuale algoritmo del Garbage Collector raggruppa assieme celle allocate in diversi momenti. Solitamente, le celle che sono allocate nello stesso momento hanno una durata simile, motivo per cui questa scelta non è il massimo.
Se riuscissimo a minimizzare i tempi di esecuzione della compattazione sarebbe possibile effettuarla ogni qualvolta il Garbage Collector rilevi un certo livello di frammentazione dello heap.
Come calcolare lo spazio liberato con la compattazione
Per stimare a grandi linee lo spazio liberato grazie alla compattazione è possibile effettuare i seguenti passaggi:
Disattivare la compattazione aprendo la pagina about:config e impostando la preferenza javascript.options.mem.gc_compacting a false.
Al momento attuale è preferibile disattivare la modalità multiprocesso di Firefox dal pannello Opzioni.
Riavviare Firefox e aprire alcune schede. Per guadagnare tempo è presente un’opzione che permette di ricaricare tutte le schede della sessione precedente. Attendere che le pagine vengano caricate.
Aprire la pagina about:memory e effettuare un’esecuzione completa del Garbage Collector facendo clic su Minimize memory usage e successivamente su Measure. Poiché è necessario un po’ di tempo affinché la memoria si assesti, è consigliabile effettuare l’operazione un certo numero di volte per ottenere dei valori significativi.
Annotare l’ammontare delle allocazioni esplicite (Total GC size) e quello di js-main-runtime-gc-heap-committed/unused/gc-things.
Riattivare nuovamente la compattazione impostando javascript.options.mem.gc_compacting a true. Non è necessario riavviare Firefox.
Fare nuovamente clic su Minimize memory usage e successivamente su Measure.
Confrontare le letture con quelle precedenti.
Notare che i valori ottenuti non saranno precisi a causa delle varie operazioni in atto in background, ma rappresentano comunque una buona approssimazione.
Rust è un nuovo linguaggio di programmazione focalizzato sulle prestazioni, la parallelizzazione dei processi e la gestione sicura della memoria. Sviluppando un nuovo linguaggio da zero e includendo alcuni dei modelli utilizzati dai moderni linguaggi di programmazione, gli sviluppatori di Rust hanno evitato la necessità di includere un sacco di “zavorra” (codice per la retrocompatibilità) con cui i linguaggi di programmazione meno recenti devono fare i conti. Diversamente, Rust è in grado di fondere la sintassi espressiva e la flessibilità dei linguaggi ad alto livello con il controllo senza eguali e le prestazioni di un linguaggio di basso livello.
La scelta di un linguaggio di programmazione solitamente comporta dei compromessi. Sebbene molti dei moderni linguaggi di programmazione ad alto livello forniscano strumenti per gestire in modo sicuro la programmazione concorrente e la memoria, questo obiettivo viene raggiunto solo utilizzando risorse aggiuntive a runtime (overhead), ad esempio utilizzando un Garbage Collector (GC) e tendono a essere carenti dal punto di vista delle prestazioni e a non offrire il necessario controllo sul codice prodotto.
Per superare queste limitazioni è necessario utilizzare linguaggi di programmazione a basso livello. Però, senza la rete di sicurezza propria di molti linguaggi di programmazione ad alto livello, questo può generare codice fragile e soggetto a errori. Ci si troverà improvvisamente a dover gestire manualmente la memoria, l’allocazione delle risorse e a districarsi con i puntatori pendenti, ecc. Creare del software che sfrutti al massimo il crescente numero di core presenti negli attuali dispositivi è complesso, ancor più complicato è assicurarsi che il codice funzioni correttamente.
Quindi, in che modo Rust riesce a mettere assieme il meglio dei due mondi in un unico linguaggio di programmazione? In questo articolo cercheremo di dare una risposta a questa domanda.
Recentemente è stata rilasciata la versione 1.0 stabile di Rust. Il linguaggio ha già una comunità molto attiva, un crescente ecosistema di librerie (chiamate crate) disponibili tramite Cargo, il package manager, e molti sviluppatori che stanno già sfruttando le sue capacità in svariati progetti. Anche se non si è mai avuto a che fare con un linguaggio a basso livello, questo è il momento giusto per approfondire l’argomento.
Rust sembra un’ottima scelta per programmatori abituati a lavorare a stretto contatto con il sistema, ma cosa dire per chi non ha familiarità con i linguaggi di programmazione a basso livello, ad esempio tutti quei programmatori che ricordano solo vagamente le parole “C” e “allocazione dello stack/heap”, magari per averle ascoltate anni fa in un corso introduttivo sulla programmazione? Rust fornisce prestazioni tipicamente ottenibili con un linguaggio di basso livello. Nonostante questo, nella maggior parte delle occasioni la sensazione è quella di lavorare con un linguaggio ad alto livello. Ecco alcuni esempi che mostrano concretamente come utilizzare Rust nello sviluppo delle proprie applicazioni.
Hacking e sviluppo di applicazioni per l’Internet delle cose (IOT)
L’era dell’Internet delle cose (IOT) e l’espansione del movimento dei cosiddetti maker ha portato a uno sviluppo democrativo del mondo dell’hardware. Che si tratti del Raspberry Pi, di Arduino o di uno dei giovani colossi emergenti come BeagleBone o Tessel, è possibile scegliere tra molti linguaggi, inclusi Python e JavaScript, per lo sviluppo del proprio progetto hardware.
In alcuni casi però, le prestazioni ottenute con questi linguaggi di programmazione sono, molto semplicemente, non adeguate. Altre volte, l’hardware scelto non è adeguato all’esecuzione di questi linguaggi di programmazione: processori lenti, con memoria e consumi di corrente ridotti al minimo, richiedono ancora l’utilizzo di linguaggi più vicini a quello macchina. Tradizionalmente il linguaggio di riferimento è sempre stato il C, ma come probabilmente si sarà intuito, Rust è l’alternativa emergente in questo settore.
Rust supporta un’ampia gamma di piattaforme. Sebbene il supporto per alcune di queste piattaforme sia ancora in fase sperimentale, tra esse si possono annoverare l’hardware “generic ARM”, la dev board TIVA di Texas Instruments e anche il Raspberry Pi. Alcune delle schede elettroniche di nuova generazione realizzate per l’Internet delle cose, come la scheda Tessel 2, hanno il supporto per Rust integrato e ufficiale.
Operare con applicazioni di calcolo a elevate prestazioni scalabili su core multipli
Alcuni studi suggeriscono che Rust sia già un’ottima scelta per il calcolo a elevate prestazioni (HPC). Non è necessario riscrivere tutto il codice delle proprie applicazioni in Rust: l’interfaccia per la gestione delle funzioni esterne (Foreign Function Interface o FFI) offre un ottimo binding per il codice C e consente di esporre e richiamare codice in Rust senza overhead rilevanti. Questo consentirà di riscrivere il codice della propria applicazione modulo per modulo, migrando lentamente verso una migliore esperienza per gli sviluppatori, che si tradurrà in prestazioni uguali se non addirittura superiori a quelle del vecchio codice. Inoltre si otterrà una base di codice più gestibile con meno errori, in grado di scalare meglio su un elevato numero di core.
Realizzare applicazioni più veloci
Rust è una scelta ideale per riscrivere parti sensibili delle proprie applicazioni che necessitano di avere alte prestazioni. Grazie all’interfaccia FFI è in grado di integrarsi bene con altri linguaggi di programmazione e dispone di un leggero ambiente di runtime in grado di competere con quelli del C e del C++, anche quando le risorse a disposizione sono limitate.
Nonostante la natura del linguaggio in costante evoluzione, esistono già progetti di una certa rilevanza, applicazioni utilizzate in ambienti di produzione che hanno già fatto buon uso di Rust nel corso del tempo: la startup di Yehuda Katz, Skylight, sfrutta le elevate prestazioni del codice Rust integrato in un pacchetto gem Ruby per la manipolazione dei dati. La versione 1.0 rappresenta un’importante pietra miliare nello sviluppo del linguaggio in quanto non sono previsti cambiamenti rilevanti da qui in avanti. Proprio per questo motivo è possibile consigliare l’utilizzo di Rust anche per progetti importanti.
È possibile guardare il video di Yehuda Katz e Tom Dale in cui spiegano le basi della programmazione in Rust e come loro utilizzano Rust unitamente a Ruby per le loro applicazioni.
Primi passi con Rust
Esistono molte guide che introducono i concetti base di Rust e altre che trattano argomenti più specifici. Ad esempio, nel blog dedicato a Rust, il Rust blog, è possibile trovare molti articoli interessanti su vari aspetti del linguaggio. Esistono anche eccellenti presentazioni introduttivi come quella tenuto all’università di Stanford da Aaron Turon. In questo talk, Aaron spiega in modo brillante i concetti fondamentali e i principi alla base di Rust e può rappresentare il perfetto punto di partenza per un viaggio alla scoperta del linguaggio:
Presentazioni e guide non possono sostituire la scrittura di codice quando si tratta di apprendere un nuovo linguaggio di programmazione. Fortunatamente anche in questo settore esistono molte ottime risorse per imparare a utilizzare Rust. Il libro Rust Book è stato appositamente concepito per aiutare i programmatori a muovere i primi passi con Rust — partendo dall’installazione dell’ambiente di lavoro e dalla creazione del primo programma, rappresenta allo stesso tempo un’approfondita guida di riferimento per tutte le caratteristiche fondamentali del linguaggio.
Un’altra risorsa degna di nota è Rust by Example, in grado di guidare il lettore alla scoperta delle caratteristiche principali di Rust sino ai segreti poteri dei trait, delle macro e dell’interfaccia FFi. Rust By Example offre utilissimi esempi modificabili direttamente nel browser inclusi nei vari articoli. Non è nemmeno necessario scaricare e compilare il codice Rust, poiché è possibile provare, e modificare, il codice stesso direttamente dal browser stando comodamente seduti sul proprio divano di casa. Per lo stesso motivo esiste pure un Playpen online dedicato a Rust.
Non che scaricare e installare Rust sia molto complicato. È sufficiente visitare la pagina principale del sito di Rust e scaricare i file di installazione per il proprio sistema operativo. Il download comprende tutti gli strumenti base per iniziare, come rustc, il compilatore, o cargo, il package manager) e sono disponibili i pacchetti precompilati per tutti i sistemi operativi (Windows, Linux e OSX).
Ma allora, che cos’è che rende Rust così unico? Così diverso?
Lo stile Rust
Probabilmente è proprio il modello di proprietà (ownership) di Rust, non presente in altri linguaggi, che gli consente di essere davvero competitivo, riuscendo a eliminare tutta una serie di errori relativi al threading e alla gestione della memoria, e nello stesso tempo a semplificare lo sviluppo e il debug del codice.
Il modello di proprietà in Rust
Il principio base del modello di proprietà in Rust consiste essenzialmente nel fatto che ciascuna risorsa può appartenere a uno e un solo “proprietario”. Col termine risorsa si può indicare qualunque cosa, da una porzione di memoria a un socket aperto, fino a qualcosa di più astratto come un mutex lock. Il proprietario della risorsa è il responsabile del suo utilizzo, in alcuni casi pu prestarla ad altri utenti e deve, in ultima istanza, occuparsi della sua rimozione. Tutto ciò avviene automaticamente, grazie all’uso di scope e binding: un binding può possedere o prendere in prestito i valori, e dura fino al termine del proprio scope. Quando un binding esce dallo scope, deve restituire il valore preso in prestito oppure rimuoverlo se ne è il proprietario.
La cosa ancor più interessante è che i controlli per il corretto funzionamento del modello di proprietà sono effettuati e forzati dal compilatore Rust e dallo “strumento di controllo dei prestiti” in fase di compilazione e tutto questo produce una serie di vantaggi aggiuntivi.
Nessuna astrazione
Poiché il corretto funzionamento di un programma viene valutato in fase di compilazione, è possibile considerare il risultato ottenuto dopo la compilazione privo di errori tipici della gestione della memoria e della programmazione concorrente, come ad esempio l’utilizzo di puntatori che fanno riferimento a porzioni di memoria che sono state liberate o problemi di concorrenza (data races). Tutto questo è possibile perché Rust segnala in fase di compilazione eventuali violazioni dei principi sopra esposti, contribuendo in questo modo a mantenere il runtime minimale. Spostando questi controlli in fase di compilazione non è necessario effettuarli a runtime (il codice compilato è già sicuro), e si possono perciò evitare overhead in fase di runtime. Nel caso della gestione della memoria, questo si traduce nell’inutilità di avere un Garbage Collector a runtime. Tutto questo — avanzato costrutto del linguaggio con pochi o nessun overhead in fase di runtime — è alla base del concetto di “nessuna astrazione”.
Sebbene un’approfondita trattazione del modello di proprietà di Rust esuli dagli obiettivi di questo articolo introduttivo, esistono molte ottime risorse, come il Rust book e articoli che trattano approfonditamente questo argomento. I principi del modello di proprietà e dello strumento di controllo dei prestiti sono due passaggi essenziali per la comprensione di Rust e sono la chiave per comprendere altri aspetti importanti del linguaggio, come la gestione della concorrenza e il parallelismo.
Due piccioni con una fava
Oltre alla gestione sicura della memoria, il parallelismo e la concorrenza rappresentano il secondo paradigma della filosofia di Rust. Può sembrare sorprendente, ma il sistema di proprietà (assieme all’utilizzo di semplici trait) fornisce anche strumenti potenti per il threading, la sincronizzazione e l’accesso simultaneo ai dati.
Iniziando a utilizzare alcune delle primitive integrate per la gestione della concorrenza e approfondendo la conoscenza del linguaggio, potrebbe risultare sorprendente che tali primitive siano fornite dalla libreria standard piuttosto che direttamente dal core del linguaggio stesso. In definitiva, la creazione di nuove metodologie per la programmazione concorrente è lasciata nelle mani degli autori di librerie piuttosto che essere integrata nel core del linguaggio stesso e e suscettibile alle modifiche pianificate per le versioni future del linguaggio.
Prestazioni o leggibilità del codice? Scegli entrambe
Grazie al sistema di tipizzazione statica, caratteristiche scelte con cura, e l’assenza di un Garbage Collector, i binari ottenuti utilizzando il compilatore Rust sono molto veloci e assolutamente prevedibili, al pari di quelli ottenuti utilizzando linguaggi di basso livello tradizionali come C e C++.
Spostando i vari controlli dall’ambiente di runtime ed escludendo la necessità di un Garbage Collector, il codice risultante imita le caratteristiche prestazionali di altri linguaggi di basso livello, anche se il linguaggio continua a rimanere molto più comprensibile. Gli, apparenti, costrutti di alto livello (stringhe, collezioni, funzioni di ordine superiore, ecc.) eliminano quasi completamente i problemi a runtime che di solito si incontrano con gli stessi costrutti in altri linguaggi. Poiché l’output di un programma Rust dopo la compilazione è in una rappresentazione intermedia LVM, il codice macchina finale trarrà vantaggio di tutti i benefici offerti dal compilatore, multipiattaforma, LLVM e di tutte le ottimizzazioni, presenti e future, apportate al compilatore LLVM.
Si potrebbe continuare per ore sottolineando che con Rust non è necessario preoccuparsi di chiudere un socket o di liberare la memoria, spiegando come l’utilizzo dei trait e delle macro garantiscano una grande flessibilità per l’overload degli operatori, oppure descrivendo gli aspetti della programmazione funzionale in Rust (juggling iterator, closure, funzioni di ordine superiore). Ma inutile prolungare troppo questa trattazione. Prima o poi ci si imbatterà comunque in questi aspetti del linguaggio — e si sa che è più divertente scoprire da sé quanto profonda sia la tana del coniglio.
Piuttosto, iniziamo adesso a concentrarci su del vero codice.
Il primo programma in Rust
Senza ulteriori divagazioni, ecco il primo frammento di codice in Rust:
Tutto qui? Non è molto scenografico, ma c’è un limite al numero di modi possibili per scrivere un programma “Hello World” in Rust. Di seguito viene mostrato un altro esempio classico spesso utilizzato nei corsi di programmazione.
Giochiamo a Fizzbuzz con Rust
Prendiamo in esame un programma della “vecchia scuola”. Fizzbuzz è un gioco, utilizzato nei paesi anglosassoni per insegnare ai bimbi a contare e a fare le divisioni. Lo scopo del gioco (e dell’algoritmo che andremo a implementare) è quello di contare, teoricamente all’infinito, sostituendo con fizz i numeri che sono divisibili per 3, con buzz i numeri divisibili per 5 e con fizzbuzz i numeri divisibili sia per 3 che per 5 (cioè quelli divisibili per 15).
Per evidenziare meglio la semantica e gli aspetti peculiari di Rust, che sono lo scopo di questo articolo, includiamo i sorgenti dell’algoritmo anche in C e Python.
for num in xrange(1,101):
if num%3 == 0 and num%5 == 0:
print "fizzbuzz"
elif num%3 == 0:
print "fizz"
elif num%5 == 0:
print "buzz"
else:
print num
Versione in Rust di Fizzbuzz
fn main() {
for num in 1..101 { // Range notation!
match (num%3, num%5) { // Pattern Matching FTW!
(0, 0) => println!("fizzbuzz"),
(0, _) => println!("fizz"),
(_, 0) => println!("buzz"),
_ => println!("{}", num)
}
}
}
Anche da queste poche righe di codice si può già iniziare a intravedere i punti di forza di Rust. La differenza più evidente è la scelta di utilizzare il pattern matching, anziché ricorrere alla tradizionale istruzione if. Avremo anche potuto farlo, ma l’utilizzo del metodo match è un importante strumento nel bagaglio di un esperto Rustacean.
L’altra cosa da notare è la notazione mediante l’uso di intervalli del ciclo for, come avviene in Python. Non avremmo però potuto utilizzare, in quanto non previsto dalla filosofia di Rust, un ciclo for classico come nel linguaggio C. I tradizionali cicli for sono considerati fonte di errori e sono perciò stati sostituiti dal concetto più generale di iterazione.
Ora analizziamo più in dettaglio cosa accade nella fase di pattern matching del nostro esempio:
// per il pattern matching creiamo una tupla che contenga
// i resti della divisione intera per 3 e 5
match (num%3, num%5) {
// quando num è divisibile sia per 3 che 5
// (entrambi i resti sono 0)
// -> stampiamo "fizzbuzz"
(0, 0) => println!("fizzbuzz"),
// quando num è divisibile per 3 (il resto è 0)
// è divisibile per 5? A noi non interessa
// -> stampiamo "fizz"
(0, _) => println!("fizz"),
// quando num è divisibile per 5 (il resto è 0)
// è divisibile per 3? A noi non interessa
// -> stampiamo "buzz"
(_, 0) => println!("buzz"),
// In qualsiasi altro caso stampiamo il numero
// Nota, il matching deve essere esaustivo, vale a dire:
// bisogna considerare tutti i possibili valori, ma questo è forzato
// dal compiler Rust
_ => pintln!("{}", num)
}
Questo non è il luogo per trattare approfonditamente il funzionamento del pattern matching, della destrutturazione e per spiegare cosa sono le tuple. È possibile trovare ottimi articoli che trattano questi argomenti in modo approfondito nel libro Rust Book, nel Rust Blog o su Rust By Example, ma pensiamo che accennarli sia un modo per dimostrare le caratteristiche che rendono Rust così potente ed efficace.
Fizzbuzz utilizzando la programmazione funzionale
Per estendere l’ultimo esempio prodotto e per dimostrare la reale versatilità di Rust, nel nostro secondo esempio faremo fare un salto di qualità al codice del nostro Fizzbuzz. Rust definisce se stesso “pluriparadigma”. Possiamo mettere tutto ciò alla prova riscrivendo il programma Fizzbuzz utilizzando la programmazione funzionale. Per avere una migliore prospettiva, mostreremo anche il codice utilizzando le specifiche della versione 6 di JavaScript (EcmaScript 6).
Fizzbuzz, versione JavaScript utilizzando le tecniche della programmazione funzionale della versione 6
Non solo è possibile imitare lo stile di programmazione funzionale di JavaScript mediante l’utilizzo delle closure e le chiamate funzionali ai metodi, ma grazie al potente pattern matching di Rust, è altresì possibile migliorare l’espressività di JavaScript.
Nota: gli iteratori di Rust sono lazy e si rende perciò necessario, per il corretto funzionamento del codice, utilizzare una chiamata al metodo .collect() (che viene denominato un metodo consumer) — dimenticando questa accortezza il codice non funzionerà. Fare riferimento alla sezione consumers del libro Rust Book per ulteriori informazioni su questo argomento.
Scegliere un progetto
A questo punto si dovrebbe essere ansiosi di immergersi in Rust e di iniziare un progetto interessante. Ma che cosa creare? È possibile iniziare sviluppando una piccola applicazione o una piccola libreria e caricarla su crates.io. Molti programmatori hanno già realizzato degli interessanti progetti in Rust: dai piccoli progetti kernel di tipo *nix, a progetti basati su hardware embedded, dai giochi alle strutture lato server, dimostrando che l’unico limite è la propria immaginazione.
Se si vuole iniziare da qualcosa di piccolo, ma collaborando a qualcosa di utile mentre si imparano le parti più complesse della programmazione in Rust, è possibile considerare di collaborare a qualcuno dei progetti presenti su Github o al codice del compiler Rust (anch’esso scritto in Rust). Oppure, è possibile riscrivere piccole parti delle proprie applicazioni utilizzate nel proprio ambiente produttivo e sperimentare con Rust analizzando i risultati ottenuti. L’interfaccia di Rust per le funzioni esterne, Foreign Function Interface (FFI) è stata realizzata specificatamente per rimpiazzare il codice C. Con un piccolo sforzo è possibile sostituire porzioni di codice dei propri applicativi con del codice Rust. Ma l’interoperabilità non si ferma qui — questi binding per il linguaggio C funzionano anche in modo inverso. Ciò significa che è possibile utilizzare librerie C nel proprio codice Rust — oppure (poiché molti linguaggi di programmazione prevedono un’interfaccia per le librerie standard del linguaggio C) utilizzare chiamate, da e verso, fra Rust e Python, Ruby, o anche Go.
A questo proposito, si guardi il talk di Dan Callahan My Python’s a little Rust-y per imparare a connettere Rust con Python.
Praticamente non esistono linguaggi che non siano in grado di funzionare assieme a Rust. Si desidera compilare il codice Rust in un sorgente JavaScript o utilizzare codice assembly inline nel proprio codice Rust? Si può fare!
E adesso puoi smettere di leggere questo articolo e darti da fare per costruire qualcosa di importante.
E non dimenticare — Rust non è semplicemente un linguaggio di programmazione — è anche una comunità. In caso di problemi è possibile chiedere aiuto nei Forum o su IRC. È anche possibile condividere le proprie impressioni e i propri progetti sul canale Rust Reddit.
Rust è già straordinario — persone come te lo renderanno ancora più grandioso!