Ogni azienda inizia con un'idea, ma il valore di quell'idea diventa mille volte se crea un impatto sociale significativo sulla società. Ad esempio, due studenti di BITS Goa (India), Aman Srivastav e Sanskriti Dawle hanno sviluppato un progetto chiamato "Mudra" per le persone ipovedenti. Mudra è una parola sanscrita che significa postura o gesto; Mudra è un insegnante di braille che aiuta le persone con problemi di vista nell'apprendimento o nella lettura della lingua braille. Mudra è alimentato da Raspberry Pi ed è un ottimo esempio di come un'idea semplice può creare un grande impatto sociale. Aman e Sanskriti lo chiamarono " Annie: A Braille Teacher ", dal nome di Anne Sullivan (insegnante di Helen Keller).
Il Braille è fondamentalmente un sistema tattile per la lettura e la scrittura di persone non vedenti o ipovedenti. In linguaggio braille, ogni carattere e numero è rappresentato dalla combinazione di punti in rilievo in un blocco rettangolare di sei punti. Come se il punto in alto a sinistra fosse sollevato dai sei punti, allora rappresenta il carattere "A" e se due punti in rilievo in alto a sinistra rappresentano "B" e così via. E le persone ipovedenti possono percepire questi punti in rilievo toccandoli con le dita.
In Project Mudra, sei pin sono attaccati a Raspberry Pi, che rappresenta i sei punti in Braille e questi pin vanno su e giù per indicare qualsiasi carattere o numero e l'utente può percepirli mettendo le mani sui pin. L'API di Google Speech viene utilizzata in modo che l'utente possa anche ascoltare l'output tattile come voce. Il software per il progetto Raspberry può essere trovato qui su Mudra Git Repository.
Questo insegnante Braille Dicta con tecnologia Raspberry Pi ha tre modalità: modalità automatica, modalità di navigazione e modalità esame. In modalità automatica, genera automaticamente l'uscita tattile su hardware Braille per ogni carattere e numero in un loop, e il carattere corrispondente può anche essere ascoltato utilizzando le cuffie allo stesso tempo. In modalità Browse, l'utente può fornire manualmente l'input vocale parlando, che verrà convertito in testo utilizzando l'API di Google Speech e verrà generato un output tattile corrispondente. Nell'ultima modalità che è la modalità Esame, un personaggio casuale viene generato sui Pin e l'utente deve riconoscerlo e pronunciarlo. Quindi l'API vocale di Google convertirà la risposta in testo e verrà verificata la correttezza della risposta.
Aman e Sanskriti hanno ottenuto diversi premi per questo progetto creativo ed è stato presentato in molte conferenze tra cui la famosa conferenza PyCon Python (2014, Montreal). Hanno un piano futuro per convertirlo in un prodotto per la produzione e renderlo disponibile sul mercato commercialmente. Continua a visitare il suo sito web ufficiale ProjectMudra per gli aggiornamenti e seguilo su Twitter.