Industrial “Micro” PC

Da qualche tempo meditavo di introdurre ai miei contatti “sistemistici” il mondo “industrial PC”, che di fatto “frequento” almeno dal 2009, e che ho avuto modo di introdurre “concretamente” in Edison … l’occasione mi è stata fornita da Contradata, che ha deciso di mettermi a disposizione un PC industriale di dimensioni veramente ridotte di IEI, oltre a un disco SSD decisamente peculiare di InnoDisk, prodotti che ho poi avuto modo di gestire attraverso un prodotto altrettanto interessante di InnoDisk, vale a dire il piccolissimo “InnoAgent”‘

1. ITG-100-AL

In questo caso siamo davanti ad un comunissimo PC, ma completamente senza ventole, e di dimensioni ridottissime: 137 x 102.8 x 56.2 mm.

E’ costruito intorno ad un soc Intel atom x5-E3930: stiamo quindi parlando di un prodotto lanciato a fine 2016, che supporta un massimo di 8GB di ram LPDDR3 … con questo articolo vorrei dare evidenza di quanto possa aver senso nel 2022 considerare una macchina con tali specifiche, paragonandola al comune notebook che uso per scrivere questo articolo.

IEI ITG-100-AL

Nella sua configurazione “di fornitura”, è equipaggiato con 2GB di ram LPDDR3 non ECC (anche se la memoria ECC è supportata) e un disco mSATA su bus PCIe da 64GB: essendo un prodotto concepito per uso “industrial”, quindi con sistemi operativi compatti tipo Windows “IoT” piuttosto che distribuzioni Linux con footprint “ridotto”, si tratta di una dotazione più che sufficiente.

Siccome il mio obiettivo però è di dare un idea a chi non ha “consuetudine” con il mondo industrial, ho effettuato test con sistemi operativi del tutto standard, anche per farmi un idea di cosa si può fare con un simile PC in un comunissimo utilizzo “daily office”.

Sono quindi partito effettuando un benchmark con il PC con cui scrivo l’articolo, un contemporaneo Samsung Book2 PRO con 16GB di ram, utilizzando la nota suite “Passmark Performance Test” nella sua versione 10.2 , ottenendo uno score complessivo di 3789 punti … vediamo come si comporta a confronto il MiniPC nella sua configurazione base.

1.1 Test Win10 Pro x86 + 2GB Ram

2GB di ram sarebbero sufficienti anche per una versione “base” di Windows 10 x64, ma per un uso “ragionevole” e per poter fare un test di utilizzo con software “comune” ho deciso di fare un primo test con la versione a 32bit nella configurazione base.

Il paragone con il mio notebook di ultima generazione “sembra” impietoso per quanto riguarda l’indice “globale” di prestazioni, cosa tuttosommato ragionevole se non altro per una macchina che costa 8 volte tanto.

Da notare comunque la differenza di prestazioni fra un’installazione “standard” di Windows 10 e dopo l’installazione di tutti i driver, operazione che da sola riesce a raddoppiare le prestazioni.

In questa configurazione comunque la macchina finisce per fare il boot in 20 secondi dalla pressione del pulsante di accensione, di cui i primi 10 per la diagnostica … un risultato del tutto dignitoso.

1.1b Test Win10 Pro x86 + 4/8GB Ram

La macchina è dotata di un unico slot LPDDR3, che permette di sostituire il banco da 2GB originale con uno da 4 o da 8, operazione che ho fatto ottenendo un punteggio di benchmark sostanzialmente identico in tutti i casi: ovvio che con 8GB di ram è possibile tranquilamente disabilitare la memora virtuale e utilizzare più applicativi in un utilizzo comune, mentre la configurazione a 2GB si presta più per applicativi verticali di tipo industriale.

1.1.c Test Knoppix 9.1 + 2GB Ram

2GB di ram sono comunque abbondantemente sufficienti per una distribuzione di Linux “live” come Knoppix: ho quindi utilizzato per un paio d’ore la macchina con la recente versione 9.1 che è risultata di una fluidità eccellente, sia nella comune navigazione con Chromium che nell’utilizzo di documenti Word e fogli di calcolo con OpenOffice, senza poter avere contezza che si trattasse di qualcosa di diverso dal mio notebook tradizionale.

Per confronto, anche in questo caso avrei voluto utilizzare la suite Passmark, pur disponibile per Linux, ma in nessun modo sono riuscito a farla girare su questa distribuzione, anche installandola sul disco SSD locale, rimandando il test all’utilizzo con Ubuntu.

1.2 Test Win10 Pro x64 2/4/8GB Ram

Installando invece una copia di Win10 a 64bit, resta evidente l’impatto della memoria ram aggiuntiva: se l’indice complessivo con Win10 a 32bit è pari a 383, con la versione a 32bit sale a 482, che passano a 533 con 4GB di ram e 551 con 8GB di ram.

1.3 Test Win11 Pro x64+ 8GB Ram

4GB di ram sono sufficienti anche per un installazione con Windows 11, anche se questo miniPC manca di un chip TPM

1.4 Test Win11 Pro x64+ 8GB Ram

8GB di ram diventano più che sufficienti per l’esecuzione di Windows 11 64 bit disabilitando la memoria virtuale, operazione praticamente indispensabile su una macchina industriale per consentirne la durabilità, specie in termini di usura dei supporti di memoria a stato solido.

1.4.1 Test con Office365

1.4.1 Test con Autocad 2D

Innodisk 3ME4 / 870EVO / InnoOSR /

1.5 Conclusioni

Comparazione commentata di tutti i benchmark

  • Test con Disco M.2 A-Key aggiuntivo interno
  • Test con Disco SSD Sata aggiuntivo
  • Test con InnoOSR 64GB

Comparazione commentata di tutti i benchmark

  • Utilizzo di un mese come Office PC
  • Utilizzo di un mese come Car PC

2. InnoOSR 2.5” SATA SSD 3TO7

InnoOSR 2.5” SATA SSD | Industrial SSD

Veniamo ora al disco SSD, del quale Innodisk dichiara essere il primo prodotto al mondo con funzionalità di “System Recovery” implementate a livello di firmware, il tutto allo scopo di “tagliare alla radice” ogni problema di compatibilità software.

Esteticamente il prodotto si presenta come un comune SSD, con in più un piccolo header da 4 pin, di cui due dedicati a un led, ed un altro di tipo GPIO; quest’ultimo, in estrema sintesi, può essere cortocircuitato da un qualsiasi pulsante per “iniziare” le procedure di ripristino, oppure pilotato da un’altro device GPIO che faccia la stessa cosa via software, con intervento umano o proceduralmente.

Per connetterlo al pc IEI ho utilizzato l’a’unica porta SATA in dotazione, alimentando il disco con un’alimentatore ATX esterno, non avendo a disposizione per il mio test lo specifico box di espansione IEI ITG-100-AL-E1 ma il risultato è perfettamente equivalente.

Alla prima connessione il disco si presenta a Windows come un SSD da 35.90 GB non partizionato, da poter quindi usare come un disco comune; lanciando invece il tool “InnoOSR_AGE”, una gradevole interfaccia grafica ci informa che il disco ha a disposizione un’area “nascosta” da 20GB, il che rende conto della riduzione di dimensione che appare al sistema operativo.

InnoOSR al primo utilizzo

2.2 Test della funzionalità di ripristino via software

Siccome avevo scelto di fare un’installazione di Windows 10 su una partizione da 21GB, al primo utilizzo sono stato informato da InnoOSR che la partizione nascosta non aveva spazio a sufficienza per poter ricevere un BackUp tale da permettere la funzione di “Standard Recovery”, quindi ho ridotto ulteriormente la dimensione della partizione di sistema allo scopo di poter effettuare il primo Backup.

InnoOSR dopo il ridimensionamento della partizione di sistema

Ridimensionata la partizione di sistema, bisogna selezionarla specificamente: ciò fa intendere come il backup sia inteso non dell’intero disco, ma di una singola partizione: è ovvio che in questi casi, per una resilienza maggiore in termini di disaster recovery, sia opportuno installare windows in un’unica partizione piuttosto che premettergli quella standard per i file di boot e per il recovery. Selezionata la prima partizione a questo punto è possibile procedere ad un primo backup:

InnoOSR pronto per effettuare il primo backup di una partizione

La pressione del tasto “backup” genera la comparsa per un breve istante di una finestra di command line, dopodichè parte la procedura di backup, che in questo caso è durata circa sei minuti; al termine il software ha effettuato uno shutdown della macchina.

Dopo il reboot il tool innoOSR offriva in effetti la possibilità di fare il recovery:

come primo test ho effettuato delle modifiche al sistema ed effettuato il primo recovery, anche in questo caso durato circa sei minuti.

Anche al termine della procedura il software ha causato uno shutdown, dopo il quale il sistema era in effetti tornato nelle condizioni precedenti alle mie modifiche.

A questo punto è intervenuto un “problema”, probabilmente di gioventù dello specifico firmware: la partizione di sistema così “ripristinata” si è rivelata non modificabile …

2.2 Test della funzionalità di ripristino mediante interrupt GPIO

Il cavetto con led e pulsante fornito in dotazione in linea di principio permetterebbe di effettuare il recovery con un input “hardware” umano tenendolo premuto per più di cinque secondi … in realtà la cosa non ha funzionato, immagino sempre per problemi di gioventù del firmware


Supports Hardware GPIO and Software Triggering
Reserved GPIO Pins to Accommodate your System Design

2.3 Conclusioni

In conclusione: un disco InnoOSR da 64GB si presenta al sistema come un disco SATA da 35.90GB … la parte “riservata” del disco NON è visibile da sistema operativo e la sua dimensione NON si può modificare senza l’intervento di innodisk

3. InnoAgent EZ2N-0XL1

Come ultima parte della prova di “materiale industriale”, ho utilizzato un piccolissimo modulo, sempre dello stesso produttore del disco SSD, che è concepito espressamente per il management “out of band” di soluzioni industriali. Si tratta di una piccola daughterboard

EZ2N-0XL1

La mia prima presentazione: a scuola, insegno ai professori! Possibile?

Oggigiorno, in ambito lavorativo e nelle più disparate discipline, è ormai prassi consolidata trattare pubblicamente temi e argomenti, siano essi le fasi di un progetto da intraprendere, i dettagli di una operazione finanziaria, le
caratteristiche di un prodotto, attraverso presentazioni realizzate con l’uso di programmi quali Powerpoint, Keynote o Impress … ma quarant’anni fa, questi
programmi non esistevano ancora e per presentare qualcosa ad una platea, si
usavano altri metodi: si scrivevano i testi a macchina, si preparavano cartelloni, in taluni casi si ricorreva ad una lavagna luminosa.

In quegli anni ero uno studente liceale nella città di Chieti: Il mio istituto aveva
due sedi, la principale ubicata sul colle dove sorgeva l’antica “Teate” e
una succursale nella zona di pianura, in espansione industriale, che prende il
nome di “Scalo” in virtù della presenza di una stazione ferroviaria.

Inutile dire che mentre la sede centrale era una vero edificio scolastico, attrezzato con palestra e qualche laboratorio (anche se nessuno li utilizzava),
quella secondaria era “arrangiata” in un appartamento, senza palestra (alla cui mancanza si sopperiva con il vicino parco giochi) e non di meno, senza laboratori.
Un’immagine abbastanza usuale nella scuola dei primi anni ottanta.
Siamo infatti tra il 1982 e il 1983: cominciano ad affacciarsi sul mercato i primi
home computer, preludio della rivoluzione di cui oggi viviamo gli effetti. Ma, in quegli anni, non esistendo nè negozi specifici, nè grossi centri commerciali, non era facile trovare dove poterli acquistare, soprattutto in un piccolo paese come quello in cui vivevo. Diciamo che di computer in giro, tanto io quanto i miei compagni di scuola, non ne vedevamo.
Io avevo sempre coltivato l’hobby dell’elettronica, fin dalla più tenera età, complice un “lungimirante” zio ingegnere che spesso mi regalava
qualche componente elettronico, spiegandomi il principio e l’utilizzo.

Cominciai a leggere diverse riviste di elettronica e appresi i primi rudimenti della logica e dell’esistenza dei computer per uso personale.
Non ne avevo uno, erano ancora molto costosi, ma già a
12-13 anni, mi ero costruito con dei led, transistor e delle logiche SN74 un
piccolo addizionatore a 4 bit (full-adder).

Ne ero orgoglioso ma cominciava a non bastare per la mia voglia
di conoscere
Così iniziai a “stressare” mio padre, parlandogli delle spettacolari
capacità di elaborazione e della necessità di averne anche noi uno in
casa. Mio padre rimandava, ma al termine del secondo
anno di liceo, a fronte degli ottimi risultati scolastici,
decise di esaudire il mio desiderio.
Scelsi il Sinclair ZX Spectrum nella versione più economica
da 16Kb. I motivi furono tanti, diciamo che quel computer rappresentava il
miglior compromesso tra costi e benefici! Lo ordinai nel
negozio GBC dove acquistavo i componenti elettronici, che era l’unico il quale
alla mia richiesta di un computer non mi prendesse per matto.

Era il mese di luglio, e complice quello successivo di agosto che all’epoca
rappresentava un mese morto per ordini e spedizioni, arrivò quasi a fine settembre, proprio in prossimità dell’inizio delle lezioni del
terzo liceo (allora la scuola iniziava ai primi di ottobre).
Durante l’anno scolastico dividevo il mio pomeriggio tra
lo studio scolastico e lo studio dei rudimenti dell’informatica: scrivevo
programmi Basic e cominciavo a creare piccole routine in linguaggio macchina
per velocizzare le operazioni più gravose.

Non sono stato
mai un grande appassionato
di giochi, pochi mi
hanno veramente catturato
e quasi sempre quelli che
avevano caratteristiche particolari
a livello di
programmazione ed effetti.
Con i miei amici di classe
purtroppo non c’erano grandi
discorsi in merito. Molti
ignoravano cosa fossero gli
home computer, altri pur conoscendone
l’esistenza (perchè
magari usati dai
genitori sul luogo di lavoro)
li ritenevano ancora troppo
lontani da un uso nella vita
di tutti i giorni.
Però io continuavo a parlarne
con tutti, anche con i
professori, e sono sicuro che
nonostante mi ascoltassero
non tutti comprendessero
appieno i miei discorsi. Il
professore di matematica
sembrava il più interessato
e
qualche volta mi faceva delle
domande ovvie, ma se non
altro in tema! Questo professore,
durante l’anno
usava creare gruppi di 2-3
persone a cui assegnava un
lavoro di Fisica da sviluppare
e presentare alla classe.
I membri avevano ampia libertà
sulle modalità di presentazione
dell’argomento e
potevano avvalersi di
disegni sulla lavagna, cartelloni,
modellini. Alla fine della
presentazione la classe e il
professore valutavano
la qualità del lavoro svolto e
veniva assegnato un voto.
La fine dell’anno si avvicinava
ed io non ancora ero stato
inserito in nessun gruppo,
tantomeno mi era stato
assegnato un argomento da
relazionare. Quando venne
finalmente il mio turno, ero
rimasto da solo e di
conseguenza il compito lo
avrei svolto in totale autonomia.
Il professore me lo
assegnò più o meno con
queste parole: “Sappiamo,
perchè ce lo ricordi continuamente,
che hai comperato
un computer e poichè nè
io,
nè i tuoi compagni ne sappiamo
molto sull’argomento,
ti chiediamo di relazionarci
su come è fatto e come
funziona!”
Ero raggiante! Non mi sembrava vero che mi venisse
assegnato un compito così interessante!
Avevo tempo una settimana per prepararmi e il pomeriggio
stesso cominciai a pensare
a come impostare il
lavoro. Mi resi, però, subito
conto, che spiegare concetti
quali CPU, RAM, ROM e così
via, a persone che
non avevano nemmeno le
più elementari basi non dico
di elettronica ma proprio di
elettricità, non era affatto
banale. Volevo realizzare alcuni
schemi su dei cartelloni
colorati e avrei utilizzato una
bacchetta per indicarli
durante il discorso. Però era
più o meno quello che avevano
fatto e sempre facevano i
miei compagni.
Dovevo stupirli. Ebbi allora
un intuizione: chi meglio del
computer poteva presentare
se stesso?
A distanza di anni scoprii che
era quello che anche Steve
Jobs più o meno nello stesso
periodo (Gennaio
1984) aveva pensato per la
presentazione del suo Macintosh.
Cominciai a buttare giù una
scaletta degli argomenti che
volevo trattare: come era fatto
un computer, la
nomenclatura delle sue componenti,
perchè i computer
usano una logica binaria e
non decimale, come si
programmano, cosa si può
fare con un computer…
Scrissi il testo della relazione
usando la macchina da scrivere,
non avevo una stampante,
che allora costava
anche più di un computer
stesso.
Lo Spectrum aveva dei facili
comandi basic per la gestione
della grafica, così li utilizzai
per disegnare sul
video un grafico dello schema
tipico di un computer. Il programma
veniva eseguito abbastanza
velocemente
ed era simpatico vedere pian
piano crearsi il disegno: era
molto scenografico. Volevo
però mostrare anche
altre capacità grafiche e mostrare
delle bitmap di qualità
quasi fotografica (sic). Pensai
di realizzare una
schermata con una effige di
una rockstar molto famosa
all’epoca, Madonna. Ovviamente
non avevo uno
scanner e per realizzare questa
schermata, avevo, quindi,
sovrapposto un foglio di carta
millimetrata alla
fotografia, presa da un giornale,
curando che avesse le
giuste dimensioni e proporzioni.
Con infinita pazienza
annerivo i piccoli quadratini sul foglio millimetrato ogni
qualvolta corrispondessero
ad un’area scura della
foto. Pian piano cominciò ad
apparire il viso della cantante.
Adesso avevo una riproduzione
di una foto, in un sistema
di assi cartesiani di
cui conoscevo, per ogni
singolo punto, i valori x,y. Li
usai per “plottare” i punti
sullo schermo. Il lavoro era
lento e bisognava
ricordarsi di non premere
due volte il tasto ENTER, per
evitare di cancellare il disegno.

Ero costretto a lavorare in questo modo, e
non scrivendo un programma
con le singole istruzioni,
a causa dell’esigua
memoria disponibile sulla
versione non espansa della
macchina (16K). Ottenuta
poi la schermata, la salvavo
come SCREEN$, una delle
notevoli funzionalità dello
Spectrum Basic, e scrissi
quindi un programmino in
linguaggio macchina, che
caricava la schermata in memoria
senza visualizzarla e
che successivamente, alla
pressione di un tasto la trasferiva,
nell’area di memoria
del display file, facendola
apparire in pochi secondi.
Avevo a disposizione infatti,
come supporto di memorizzazione,
il nastro magnetico
di una cassetta.
Recuperare le informazioni
da un nastro era un’operazione
abbastanza lenta, per
cui pensai di sfruttare quelle
pause tecniche per introdurre,
a voce, gli argomenti
successivi, lasciando sullo
schermo solo delle scritte
con
caratteri piuttosto grandi
ed effetti di lampeggio degli
stessi (che funzionavano anche
durante il
caricamento). In questo
modo si aveva la sensazione
che il computer continuasse
a lavorare mentre invece
era completamente impegnato
a caricare il pezzo successivo.
Ed io, voce narrante,
avrei riempito quei minuti
con qualche informazione.
Quando ebbi terminato tutti
i programmi necessari alla
dimostrazione, (c’era anche
uno che suonava San
Martino mentre visualizzava
graficamente su di un
pentagramma le note man
mano che le suonava), li
registrai nella giusta sequenza
su di un nuovo nastro
che poi duplicai, per sicurezza,
in doppia copia.
Arrivò il grande giorno: avevo preparato un borsone con
il computer, il registratore e i cavetti vari, la traccia
battuta a macchina e le due cassette con tutti i programmi
in sequenza. In un altro borsone, avevo sistemato il mio “monitor” che altro non era che un TV 12” in bianco e nero a valvole.

Non era il
massimo, per una
platea di 25-30 persone, ma
quello avevo e quello potevo
portare. Il trasporto di tutta
questa mole fino a
scuola era a dir poco complicato,
tanto più che per recarmici
usavo i mezzi pubblici,
ma fortunatamente
alcuni compagni che facevano
lo stesso percorso mi aiutarono
a portare il materiale.
Quando arrivai, il
professore aveva a disposizione
le sue intere due ore di
lezione. Mi chiese di quanto
tempo avessi bisogno.
Avendo cronometrato una
delle tante prove fatte a casa,
sapevo di poter riempire circa
60-70 minuti di tempo
e dissi che un ora sarebbe
stata più che sufficiente.
In realtà, la presentazione,
per via delle continue domande
che mi venivano poste,
durò più di due ore. Sforò
anche la pausa della ricreazione,
ma nessuno dei miei
compagni se ne lamentò, perché
erano tutti attentissimi
e interessatissimi, e forse per
la semplice ragione che, finalmente,
avevano la possibilità
di vedere un
computer vero, dal vivo, in
funzione e nella loro classe, e
soprattutto con qualcuno che
cominciasse a
spiegare loro quegli strani
termini inglesi che lo governavano.
Terminata la prova ero praticamente
distrutto. Avevo
parlato per più di due ore
ininterrottamente, ma
all’unanimità il mio lavoro
fu votato come il migliore
dell’anno e prese il voto massimo.
Ero contentissimo,
la prima soddisfazione pubblica
grazie ad un computer.
Ne sarebbero in futuro seguite
altre, ma quella
significava tanto, perchè
sanciva che i computer non
erano “giocattoli”. Pensavo
di aver finito, ma non era
così. Mentre ricevevo i complimenti
dei compagni e rispondevo
ad alcune ulteriori
domande, il professore si
era assentato ed era andato
a parlare con i suoi colleghi.
Quando tornò, con un largo
sorriso, mi disse di non
riporre tutto, perchè avrei
ripetuto la prova a beneficio
di tutti gli alunni della sezione
distaccata che
frequentavo!
La nostra era una singola
sezione, cinque classi, dal
primo al quinto, stipate in
un appartamento. Si scelse il
largo corridoio che univa le
varie stanze (classi) come
“aula magna”, venne portata
una cattedra e ogni
alunno si portò la propria
sedia del banco. Mi trovai di
fronte ad almeno un centinaio
di persone (compresi
tutti i professori presenti
quel giorno) che in religioso
silenzio attendevano che
iniziassi la mia presentazione.
Il minuscolo monitor da 12”
era rovente, per non parlare
dello Spectrum che notoriamente
scaldava come un
fornetto. Pregai che non mi
abbandonasse proprio allora,
riavvolsi il nastro nel registratore
e digitai LOAD “”
ed ENTER sullo Spectrum.
Premetti il tasto PLAY del registratore.
Dall’altoparlante
si udì un fischio e sul
monitor apparvero delle righe
traballanti. La presentazione
aveva (nuovamente)
inizio!
Anche quello fu un successo,
addirittura durante la presentazione,
il Preside dell’istituto
era giunto dalla sede
centrale seguì attentamente
lo svolgimento della relazione
restandone favorevolmente
colpito al punto di
chiedermi un’ulteriore replica
la settimana successiva.
In quell’occasione “conquistai”
l’aula magna della
sede centrale e mi fu messo
a disposizione addirittura
un 24” a colori per replicare
davanti a tutto l’istituto la
mia prima presentazione!

Una vita migliore per lo Spectrum

Quasi quarant’anni, fa nelle pagine di MCmicrocomputer, veniva presentato lo ZX Spectrum, di sicuro il maggior successo dell’eclettico Clive Sinclair.

L’articolo di MC Numero 10

All’epoca me ne innamorai, corteggiandolo finché non riuscii ad averne uno tutto per me: è stato uno dei computer più diffusi, tanto che anche adesso è uno dei pezzi
vintage più richiesti, ed è anche facilmente “recuperabile”.
Se avete da poco riordinato una cantina o la sofffitta e avete ritrovato il vostro Spectrum dell’adolescenza, vi starete sicuramente chiedendo ”Funzionerà?” oppure “Come potrei ancora renderlo funzionante?”
Questa è la domanda che mi sono posto e alla quale cercherò di dare una risposta nelle pagine che seguono.

Forse, una volta che lo
avrete fatto “ripartire”, vi
accorgerete però che certe
cose erano un po’ scomode…
e vi chiederete allora anche
“Come posso modernizzarlo un po’, rendere meno scomode operazioni banali ma laboriose?” … allora cercherò di rispondere anche a questo!

Prima di tutto … vietato “accendere” prima di un check-up!
Eh si, l’errore più comune quando si ritrova un vecchio home computer è quello di collegarlo subito all’alimentatore per poterlo vedere subito all’azione: questa operazione, apparentemente innocua, può, quando il computer è stato spento per diverse decine di anni, trasformarsi in una “tragedia” con la possibilità che qualche circuito integrato si “bruci”; ciò accade perchè i circuiti di alimentazione dei computer sono abbastanza delicati e devono erogare tensioni piuttosto precise nei loro valori. In questi circuiti, ci sono elementi che devono restare entro precisi margini di tolleranza, come ad esempio i condensatori elettrolitici, che si rivelano poi essere i componenti in grado di presenare i problemi più importanti: con il passare degli anni e in presenza di materiali di qualità non eccelsa (tipico caso degli home computer, dove a minor costi corrispondeva un prezzo di vendita più allettante per l’utente finale), l’elettrolita contenuto nei condensatori tende a seccarsi alterando
le caratteristiche elettriche del componente e la sua funzionalità nel circuito.
Questo porta ad una pessima regolazione delle tensioni necessarie per i circuiti logici, il che può comportare il mancato funzionamento del computer, ed in taluni casi può “bruciare”, come già anticipato, anche qualche circuito integrato, ad esempio quelli utilizzati per la memoria RAM.

Recapping

Per questo una delle prime operazioni da effettuare consiste in quella che in gergo si chiama “recapping”, ossia la totale sostituzione di tutti i condensatori elettrolitici presenti sulla scheda con componenti di più recente produzione.

L’operazione in se, non difficilissima su computer come lo ZX Spectrum, richiede una certa abilità nell’uso del saldatore a stagno: sono disponibili appositi “kit” che contengono tutti i condensatori necessari, negli
esatti valori di capacità e fattore di forma per permettere una facile sostituzione.

Solo dopo questa operazione si può procedere all’accensione e
al successivo controllo di tutte le tensioni principali, così da
scongiurare altri problemi.

Il problema successivo è il collegamento del computer ad una TV: all’epoca queste macchine erano progettate per poter essere collegate alla presa d’antenna di un televisore analogico sintonizzato su di un preciso canale
(di solito il 36 UHF). Oggi abbiamo un nuovo standard televisivo digitale (DVB-T), che adotta frequenze e tecnologie incompatibili con quei circuiti! Che fare?

Ci sono due possibili soluzioni. La prima è quella di recuperare un vecchio TV analogico a cui collegare il cavetto RF del computer. La seconda,
necessita di un altro piccolo intervento con il saldatore, per
dotare lo Spectrum di un’uscita videocomposita che non era prevista nel progetto originale: questa modifica permette di rendere “compatibile” il computer con i televisori moderni che abbiano ancora la presa SCART
o videocomposita.

A questo punto, con lo Spectrum acceso e collegato al TV compatibile
possiamo finalmente cominciare ad usarlo.

OK, ma adesso che funziona?

Se con le vostre amorevoli cure siete riusciti a ripristinare il piccoletto, vi tornerà subito alla mente che per poterlo vedere pienamente in azione è necessario caricare in memoria qualche programma.

Una volta questo processo richiedeva l’uso di un registratore a cassette collegato con dei cavetti audio al computer e un tempo più o meno lungo (e noiso) per attendere la lettura del nastro, sperando di non incorrere in qualche fatidico errore di caricamento che costringeva a ripetere l’operazione da capo.

Per fortuna la tecnologia, nel frattempo, è progredita ed anche le capacità di progettazione degli appassionati che hanno realizzato diverse nuove periferiche per questo scopo. Per cominciare è giusto che sappiate che praticamente tutto il software realizzato per lo Spectrum è ormai facilmente reperibile in svariati siti web: i formati sono diversi, ma i più comuni, (ed anche quelli che la maggior parte delle periferiche che vedremo supportano), sono i .TAP o .TZX, ovvero delle perfette trasposizioni digitali dei nastri che usavamo in passato.

Le nuove periferiche

Partiamo, quindi, dalla più semplice periferica per il caricamento di questi file: il nome può essere Tapduino o Tzxduino ed esiste in differenti forme, dal semplice circuito “naked” alle fedeli riproduzioni in miniatura (di solito eseguite con stampanti 3D) di un registratore a cassetta: i file vengono memorizzati in una schedina SD (e questo è un elemento comune a quasi tutte le periferiche che vedremo), il cui contenuto è visualizzato su di un piccolo schermo LCD. I tasti per interagire con il dispositivo sono ridotti al minimo, quelli per scorrere avanti e indietro l’elenco, per riprodurre il file selezionate e quello per interrompere la riproduzione.

L’uso del dispositivo non riduce i tempi di caricamento, ma consente una maggiore versatilità ed affidabilità, potendo contenere in una schedina SD migliaia di nastri virtuali.

Il cuore del circuito è un Arduino (da cui la desinenza -duino nel nome) e pochissimi componenti di contorno: wi può recuperare in forma di kit, già assemblato e come abbiamo visto con una adeguata “carrozzeria”, i costi sono molto contenuti, 20-30 euro.

Avendo le capacità è possibile costruirlo con pochi componenti, in rete sono disponibili diversi tutorial.

La seconda periferica che voglio presentarvi, può utilizzare gli stessi file .TAP/TZX citati più qualche altro, ma è una vera e propria interfaccia disco con tanto di sistema operativo.

divIDE
il file browser della divIDE in azione

Sto parlando della divIDE e la sua analoga divMMC. La prima, l’originale, utilizza le memorie CF e consente di collegare anche un piccolo disco rigido IDE (da cui il suo nome), la seconda utilizza le più pratiche schede SD, ma perde le funzionalità di interfaccia IDE.

Entrambe utilizzano diversi sistemi operativi, caricati al boot da una rom contenuta sulla scheda: il più famoso e in continuo sviluppo è l’EsxDOS che presenta semplici comandi per leggere e scrivere sul disco emulato dalla CF/SD. Tutti però utilizzano una interessante feature che è il pulsante NMI con il quale si richiama un comodo file-browser per selezionare i file memorizzati sulla schedina e mandarli istantaneamente in esecuzione.

divMMC

Le divMMC sono state ulteriormente migliorate comprendendo, nella stessa scheda, una o due porte joystick selezionabili nei vari standard supportati dal software Spectrum e un secondo alloggiamento per schede SD, emulando un secondo disco.

I costi variano da un minimo di una cinquantina di euro fino a quasi il doppio per i modelli più completi.

Il fascino del passato

Non tutti gli appassionati di Spectrum sono propensi md usare periferiche e tecnologie moderne sulle loro macchine:Molti vogliono ancora utilizzare le vecchie interfacce disco con i relativi floppy disk.

vDrive

La Sinclair, in verità, aveva previsto, all’epoca, un sistema di memorizzazione innovativo che era il microdrive: un sottilissimo nastro magnetico montato ad anello in una microcartuccia. Il software permetteva di vedere questo loop come un disco ad accesso casuale.

Il mercato, vista la notoria scarsa affidabilità delle cartucce, affiancò presto delle interfacce che consentivano il collegamento dei più affidabili floppy da 3,5”. I formati più diffusi di quest’ultimi furono l’Opus Discovery e la MGT Plus D. Queste interfacce (denominate cloni) sono oggi piuttosto rare,e quando disponibili, nei vari siti di aste, vengono vendute a prezzi di molto superiori a quelli che avevano all’epoca.

Ovviamente la schiera di appassionati ha subito pensato di ricostruire, anche con qualche aggiornamento, queste schede che collegate a drive floppy (che fortunatamente sono gli stessi usati nei PC fino a qualche anno fa) permettono di leggere i vecchi dischetti.

Sono disponibili inoltre alcuni software che eseguiti su PC permettono, partendo da un’immagine disco reperibile su internet, di riscrivere le informazioni su un floppy reale che a questo punto può essere eseguito sullo Spectrum collegato ad uno di questi cloni.

Alcuni esempi sono il clone dell’Opus Discovery, progetto polacco di Maryjan (Marianm Marzec) che ho descritto su: http://www. claudiodicesare.it/2020/09/25/ un-clone-dellopus-discoveryper-zx-spectrum/ oppure il clone della +D (MGT plus D) ad opera degli spagnoli Pachuquin e Alvaro Alea reperibile qui: https://github.com/ merlinkv/PlusD_Clone.

Una periferica che invece è stata ricreata con un progetto innovativo, ma utilizza l’originale Interface 1 è il vDrive, che praticamente sostituisce in toto la meccanica e l’elettronica di un lettore microdrive con una soluzione tutta elettronica dove al posto delle inaffidabili cartucce microdrive è possibile utilizzare delle moderne schede SD.

Il progetto è di Charlie Ingley ed è possibile acquistarlo qui: https:// vdrivezx.com/

Conclusioni

Ma gli add-on disponibili non terminano certo qui, sono disponibili interfacce per il collegamento a monitor VGA e HDMI, per collegare joystick, aggiungere suoni polifonici (nei modelli non dotati) e addirittura collegarsi ad Internet per scaricare direttamente le immagini software da eseguire (progetto Spectranet). E’ proprio vero che una volta riattivato il nostro beniamino, potrà beneficiare di una seconda giovinezza e magari, anche noi riprovare le emozioni giovanili!

20 Agosto 2021
Claudio di Cesare

La mia idea di “RC”

Alcune mie considerazioni sul “numero celebrativo” di Settembre 2021

Prima di tutto … deve essere un numero che riprenda in qualche modo il discorso interrotto 20 anni fa: se vogliamo anche spiegare (in linea molto rarefatta) perchè una rivista può chiudere da un momento all’altro … aagari si può spiegare anche perchè molte riviste hanno avuto medesima sorte (Bit qualche anno prima) e altre si sono “imputtanite” (scusate il francesismo) facendo cut&paste di interi siti web (con la necessaria deriva verso repository interi su CD-Rom allegati alla carta).

A discorso riallacciato ci starebbe bene una identificazione di quale era il lettore di quella rivista, in che periodo viveva, quale era l’humus che lo circondava (già solo il fatto che non esisteva un Oracoogle a cui chiedere tutto, ma solo saper cercare su carta, scrivere lettere, confrontarsi con bibliotecari ignoranti, vivere in un piccolo centro…).

Potrebbe essere interessante prendere le news dei vari anni in cui si annunciavano nuove tecnologie (hardware e software) e vedere poi che fine hanno realmente fatto. Forse aiuterebbe anche i lettori moderni a capire che molta gente ha creduto (e investito) in certi “orientamenti” per poi dover correggere il tiro. Forse è per questo che quella generazione è abituata a riconvertirsi (ed io ne sono un umile esempio).

Tra le tante cose fallite, darei uno sguardo all’Italia di quegli anni in rapporto a quanto (indietro) si trovi adesso. Non vorrei buttarlo su un discorso politico, ma far capire anche ai giovani lettori (o ai vecchi che non hanno capito) che se non si pianifica e non si impara a vedere obiettivi lunghi, ma soprattutto non si tiene fede agli stessi, non si arriva da nessuna parte.
Parliamo dell’industria informatica nazionale che da produttore è diventata importatore, dell’indotto elettronico che demotivato è sparito dal territorio, della nostra industria software che non crea ma subisce supinamente ciò che avviene altrove (ed ultimamente viene sostituita con delocalizzazioni in India o chissà dove).

Con queste premesse creiamo il terreno per calare la realtà che c’era e che è diventata, e possiamo cominciare a parlare anche del perchè “riscoprire” la tecnologia di allora ha un valore.
Parliamo del retrocomputing, della sua valenza didattica, dei gruppi, del collezionista come storico/archeologo di un epoca.

Qui possiamo inserire “le prove che non avete fatto” di macchine come pietre miliari dell’evoluzione dell’informatica personale. Non le avete fatte perchè la rivista allora non c’era (l’Altair, l’Imsai, il Pet, il Kenbak…). Il software che non avete provato (mi viene in mente il VisiCalc: il padre di tutti i fogli di calcolo).

Poi ci metterei, come dicevo, anche delle interviste impossibili, quelle fatte a personaggi storici, ma non contemporanei alla pubblicazione. Io ho due nomi (sui quali mi sto concentrando): Alan Turing e Doug Engelbart. Il primo rappresenta il padre della informatica moderna, il secondo il fautore della interazione moderna dell’uomo con la macchina (ho in riserva anche Alan Kay).
Anche John Draper aka Cap. Crunch.
Non mi concentrerei troppo sui vari Gates, Jobs, Zuckenberg & C., fin troppo noti e straparlati.

Pensieri vari non ancora sviluppati ed articolati…
– Un bel raffronto tra i costi hardware/software dell’epoca e quelli di adesso, anche nell’ottica di quanto “sarebbe” facile accedere, oggi, al mondo dell’informatica, rispetto ad allora.
– Perchè nascono gli hacker (un po’ prima veramente): etica e fini.
– Perchè nascono i pirati. La pirateria software ha veramente danneggiato il sistema?
– Perchè prima bastava un pc e un basic per fare qualcosa e adesso devo tirar giù giga di roba per mettere su un sistema di sviluppo. Può essere un ostacolo allo sviluppo sw?
– Le conoscenze informatiche dell’ “uomo della strada” di oggi sono migliorate o meno rispetto ad allora? (Siamo acnora degli ignoranti -> statistica dell’informatizzazione europea)
– L’Europa unita (che all’epoca era solo commerciale) cosa ha cambiato? L’Europa è all’avanguardia, informaticamente parlando?

Claudio di cesare

L’evoluzione dei modem, dai 300bps ai 300Mbps in 40 anni

Era da un pò che avevo in mente di scrivere un’articolo su questo tema … inizialmente l’idea era di produrlo in occasione del VCF 2020, manifestazione ovviamente “saltata” per Covid19 … ma poi dopo aver sostenuto l’esame di “Teoria dei Segnali” presso l’università Politecnica delle Marche ho acquisito migliori basi teoriche per poter scrivere del tema in modo più competente, e forse è andata meglio così … questa “revisione” 2021 è sicuramente più “consapevole”.

Il mio primo “login” su un sistema telematico l’ho effettuato nell’estate 1989, grazie ad un modem a 1200bps proprio su MC-Link, servizio a cui mi abbonai poi come MC5510 … considerando che al 2020 ancora un certo numero di utenti fruisce di servizi telematici a mezzo di una “coppia”, o meglio di un “doppino in rame di categoria 3”, ritengo che a molti possa far comodo sapere come sia stato possibile passare dai primi modem a 300bps agli attuali EVDSL che su tale coppia riescono in qualche modo a “farci passare” dati nell’ordine di grandezza dei 300 Mbit, cioè DUE ordini di grandezza in più.

Questo articolo copre quindi la storia di questa evoluzione dai primi 80 anni ad oggi, considerando SOLO il doppino telefonico, quale mezzo più conosciuto da tutti … in realtà esistevano un certo altro numero di tecniche di trasmissione, che prevedevano più di una coppia, l’utilizzo di cavi coassiali a differenti impedenze, piuttosto che comunicazioni senza filo … ecco, io vorrei occuparmi in questa sede solo della prima categoria.

Bell 103A (o V.21)

Esempio di modulazione FSK
(Fonte:Wikipedia)

La maggior parte delle persone che leggerà quest’articolo ha iniziato con un modem a 1200 o 2400 bps … i quali però venivano forniti “compatibili” con quelli a 300 bps: lo standard Bell 103A fu introdotto come tale dalla AT&T addirittura nel 1962! Permeteva una trasmissione full-duplex a 300 bit/s su una normale linea telefonica. Utilizzava un sistema di modulazione FSK (Frequency-shift keying) dove il modem che originava la chiamata trasmetteva sulle frequenze di 1,070 o 1,270 Hz e quello che rispondeva alle frequenze di 2,025 o 2,225 Hz

Il modello originale del modem “Hayes Smartmodem” a 300 baud

Chi ha iniziato a “giocare” con i modem nei primi anni 80, si è sicuramente trovato per le mani già un Hayes Smartmodem o un qualcosa di compatibile : nel 1981 infatti la Hayes insieme al suo “SmartModem”, pur mantenendosi compatibile con lo standard 103A, offriva un linguaggio di comando del modem che poi è diventato standard i tutti i futuri modelli (almeno quelli casalinghi) comprendendo la possibilità di comporre automaticamente il numero di telefono con degli specifici comandi (ATDP:Attention,Dial Pulse; ATDT: Attention, Dial Tone)

Non si trattava di una novità, ma non c’erano sistemi standard, e tipicamente un modem a 300bps prevedeva l’utilizzo di un accoppiatore acustico mediante una comune cornetta telefonica con il doppino telefonico.

Personalmente ho vissuto quegli anni, senza vivere mai personalmente l’esperienza di un accoppiatore acustico, leggendo però un certo numero di recensioni di modem, anche su MC.

V.22: 1200bps

Esempio di modulazione PSK
(Fonte:Wikipedia)

Ho infatti iniziato a connettermi a servizi telematici mediante un modem V22, standard CCITT che alla pari del V21 elevo al rango di “standard mondiale” una delle modalità già disponibili per ottenere un canale a 1200 bps simmetrico su linea telefonica commutata tradizionale: si trattava di una variante dello standard Bell 212A che permetteva la realizzazione di un canale a 600bps o 1200bps utilizzando una modulazione di tipo PSK (Phase Shift Keying).

Sicuramente il mio modem non era USRobotics, cioè uno dei produttori di riferimento di Modem a livello mondiale, del quale utilizzerò le immagini a titolo di esempio, anche perchè sicuramente si tratta della marca più diffusa in italia (se non nel mondo) e sicuramente ancora più conosciuta.

V.22 bis: 2400bps

Fonte: Vintage Computer Forum

Questo standard fu poi esteso per raggiungere il doppio della velocità, ma utilizzando una modulazione di tipo QAM (Quadrature Amplitude Modulation), ed utilizzando il precedente standard V22 nel caso fosse necessario trasmettere dai 1200bps in giù (per compatibilità verso il basso o per condizioni di linea non favorevoli).

Baud o Bps?

A questo punto il mercato degli standard trovò un pò di quiete: il superamento della soglia dei 2400 bps fu infatti oggetto di ricerca e di un certo numero di standard che si proponevano di ottenere una “velocità” superiore, cercando di superare le limitazioni delle modulazioni FSK e PSK utilizzando schemi più complessi quali il PSQK e la QAM, considerando che molti dei principi di quest’ultima sopravvivono ancora nei modem contemporanei.

Vorrei cogliere qui l’occasione per dirimere una diatriba che ha visto per anni lottare schiere di utenti circa l’utilizzo del termine Bps e Baud … c’era chi sosteneva fossero equivalenti, chi diversi … “Baud” aveva un look più comune, Bps più tecnico, ma in realtà erano e sono due concetti del tutto distinti e non sovrapponibili.

L’acronimo “bps” sta infatti per bit-per-second, numero di bit trasmissibili (e non trasmessi) al secondo: è una misura quindi della “portata massima” di un canale di trasmissione digitale … affermare che lo standard V22bis permette un canale simmetrico di 2400bps su una linea tradizionale, significa che mentre si può scaricare un file massimo a 2400bps se ne può inviare un’altro sempre massimo a 2400 bps

Con il termine Baud si intende qualcosa di sottilmente diverso: nel voler onorare la memoria del “Codice Baudot”, con modem a 2400 Baud si intende un apparato che può trasmettere 2400 “simboli” al secondo, per cui un modem a 2400 baud in grado di trasmettere “simboli” da 4 bit, risulta avere una portata trasmissiva massima di 9600 bps: è quanto avviene ancora oggi con le connessioni più rapide su doppino, dove ad una portata massima teorica di 300 Mbps corrisponde un Baud Rate di circa 4000 Baud: vengono quindi trasmessi simboli dell’ordine di grandezza dei 10 Mbit circa 4000 volte al secondo (su 4000 portanti distinte) … come vedete il Baud Rate non è cambiato più di tanto, ma sono modulazioni sempre più sofisticate ad aver permesso l’evoluzione tecnologica che consente oggi a quasi tutte le utenze del territorio nazionale di godere di una connessione a “larga banda”.

V32: 9600 bps simmetrici

Arrivo finalmente uno standard mondiale per un canale a 9.6 Kbit simmetrico, a calmierare un mercato che era stato movimentato principalmente da due player: telebit e US Robotics.

Telebit produceva una linea di modem (Trailblazer) che già a metà degli anni 80 rasentava i 20 Kbit/s ed era comune per il collegamento di sistemi Unix, mentre UsRobotics tentava di stressare i limiti sfruttando il doppino in modo asimmetrico, arrivando anche a rasentare i 25 Kbit/s trasmettendo dati velocemente solo in una delle due direzioni: se era necessario un upload il modem riservava quasi tutta la banda per il canale trasmissivo, commutando poi lo schema di trasmissione in caso di download.

Il marchio USRobotics finì per avere un successo commerciale maggiore, soprattutto grazie ad una politica di marketing aggressiva che concedeva forti sconti ai “SysOp” delle famose BBS, ma anche perché lo sforzo tributato in termini di ricerca e sviluppo dall’azienda, poi acquisita da 3Com, fu sempre tale da porla “un passo avanti” rispetto sia agli standard che alla concorrenza diretta.

V32bis: 14400 bps simmetrici

uno “Stack” di Modem USRobotics, impilato non in ordine di prestazioni, ma di dimensione (fonte:codinghorror.com)

Tanto per fare un esempio, quando arrivò lo standard per i 14400 bps simmetrici, USRobotics aveva già il modello 16.8k “HST”, tecnologia proprietaria che fu spinta a colpi di 2.4 kbps fino a 24 kbps, proprio mentre lo “standard ufficiale” prevedeva un massimo molto inferiore.

In realtà questa tecnologia proprietaria aveva un approccio molto “smart”: piuttosto che cerca di ottenere un canale simmetrico, coscienti del fatto che tipicamente l’utilizzo di un modem da utente finale era concepito per fare in tempi distinti tipicamente prima dei download di file, poi di upload, gli ingegneri USRobotics svilupparono un protocollo “asimmetrico”; praticamente quando il firmware si rendeva conto che l’utente voleva ricevere un file, realizzava una trasmissione asimetrica, ad esempio 16.8 kbit in download e 0.4 kbit in upload … mentre quando l’utente si apprestava a trasmetterlo, la larghezza di banda di upload e download veniva scambiata … per quei “puristi” che amavano tenere il volume del modem alto, ciò corrispondeva ad un chiarissimo “cambio” nel “rumore di modulazione” …

é altrettanto ovvio che questi incrementi di 2.4k alla volta non erano ottenuti cambiando il baud rate, ma il bit rate … cioè concependo una tecnologia in grado di aggiungere un bit alla volta al “simbolo” trasmesso sempre a 2400 baud (ovviamente, 4 bit per i 9.6k, 5 bit per i 12kbps, 6 bit per i 14.4kbps, 7 bit per i 16.8 kbps, e così via fino ai 10 bit dei 24kbps)

V.34: da 28800 a 33600 bps simmetrici

Sempre a “calmierare” tutti gli standard che nel frattempo l’agguerrita concorrenza cercava di realizzare per accaparrarsi parte di una fetta di mercato che era diventata ricchissima (per la connessione ad Internet dell’utente finale) arrivo finalmente anche uno standard per i 28.8 kbps prima, e i 33.6kbps infine: questo tipo di connessioni, come del resto quelle dei primi modem, erano “adattive”, cioè si adattavano dinamicamente all’eventuale variato rapporto segnale/rumore in linea, scendendo dai 33.6kbps ai 31.2, poi ai 28.8, poi così via fino agli eventuali 4.8 a step di 2400 bps: tutto ciò mantenendo costante il baud rate e diminuendo il numero dei bit trasmessi per simbolo … in teoria, una volta rallentata la velocità per un degrado di linea (ad esempio un interferenza) il modem era in grado di ri-negoziare una velocità superiore con la sua controparte ad intervalli regolari.

In tutto ciò US.Robotics produceva dei modem “dual standard”, cioè in grado sia di essere compatibili con gli standard CCITT, che con i propri protocolli proprietari (ovviamente sempre almeno un bit avanti rispetto agli standard).

Fra le altre cose fu nel 1993 il CCITT , cioè l'”International Telegraph and Telephone Consultative Committee” (in francese Comité Consultatif International Téléphonique et Télégraphique, CCITT) creato nel 1956 fu “rinominato” ITU-T (ITU Telecommunication Standardization Sector), quindi lo standard V34, che ci accompagnò per anni e ancora sopravvive fino ad oggi, fu ratificato proprio sotto questa nuova denominazione.

ISDN (e V.90/V.92)

Il limite di quanto permetteva il doppino telefonico era definitivamente raggiunto: non c’era anche teoricamente modo di andare oltre … l’unico modo era di rendere “digitale” tutto il canale fra utente e utente, o fra utente e provider.

Era quindi giunto il momento dello sviluppo di un set di standard di protocolli comunicazione completamente digitale su linea analogica PSTN, che prese il nome di Integrated Services Digital Network: una tecnologia che all’atto pratico permetteva di multiplexare su un comune doppino telefonico in categoria 3 due canali dati da 64kbps (detti canali B) ed un canale dati “di controllo” (Detto canale D).

Nel 2021 questo standard è ancora vivo e vegeto … nonostante ci si stia spostando sempre di più verso uno standard IP only, TIM ancora è in grado di erogare il servizio ISDN, che resta l’unico modo di collegare alla massima velocità un FAX Standard, a parte ovviamente richiedere un servizio tradizionale PSTN, parimenti ancora erogato e richiedibile.

Courier® Lite 56K* Business Modem: Modello ancora in vendita nel 2021

Con riferimento specifico però all’evoluzione dei modem, oltre ad utilizzo full digital (che richiedeva ovviamente che entrambi le parti fossero dotate di una terminazione di rete completamente digitale), lo standard ISDN permetteva però delle amenità particolari: a mezzo di ingegnosi schemi di modulazione, fu possibile realizzare dei modem per linea analogica che, se connessi ad un provider di servizi con connessione digitale, permettevano di “stressare” il canale di ricezione prima (V.90), e anche quello di trasmissione poi (V.92), fino a un massimo teorico di 56kbs in download e 48 kbps in upload.

IDSL

Questo è un acronimo poco conosciuto dai più, ma ne parlo perchè fa un pò da ponte fra il vecchio e il nuovo mondo, cioè fra le connessioni DialUp e quelle broadband stabili: una coppia di modem IDSL era in grado, sfruttando le modulazioni tipiche della ISDN, di realizzare un canale digitale simmetrico da 144kbps (64*2 per i canali B + 16k del canale D) … utilizzai per un paio di anni una coppia di questi modem per collegare due sedi della mia azienda separate da 2km di doppino telecom standard, regolarmente noleggiato come “CdF”, collegamento diretto fonia. Allo stesso modo anni prima avevo utilizzato due modem V34 per collegare due sedi, in questo caso “distanti” ben 7km di doppino, e questa connessione punto-punto ha funzionato benissimo fin quando è servita 🙂

Si trattava comunque una delle prime modulazioni dette xDSL, cioè Digital Subscriber Line.

xDSL

Prodotti | AVM Italia
Un Fritz.Box 7590

A questo punto per poter fare un salto di qualità non era più possibile prescindere da una indispensabile “mossa tecnica”: per accorciare il percorso fra i due modem, era ovviamente indispensabile avvicinare uno dei due modem all’utente finale, cioè installarlo … nelle centrali telefoniche!

L’idea di base dietro a questo tipo di tecnologia è “valida” ancora oggi nel terzo decennio del 2000 e resterà tale almeno fino a fine decennio … prima il modem è stato installato nelle centrali telefoniche (ADSL), poi si è avvicinato fino all’armadio di strada (VDSL – FTTC), ed in alcuni casi fino alla base di un condominio.

Il tutto per permettere “portate” trasmissive teoriche massime rispettivamente di 8Mbps/1Mbps (ADSL), 24Mbps/1Mbps (ADSL2+), 55Mbps/3Mbps (VDSL) , 55Mbps/3Mbps (VDSL) , 300Mbps/100Mbps (VDSL2+)

VDSL2 frequencies.png

Più vicino di così non si può materialmente, e da qui in poi l’unica forma di evoluzione possibile è arrivare con una fibra ottica direttamente a casa dell’utente finale, piuttosto che con un ponte radio anche dedicato, ad un’antenna sopra il tetto.

In realtà esiste uno standard ancora più “capace” della VDSL2+, il G.Fast (per velocità di download fino a 1Gbps), che però non mi risulta avere alcuna diffusione commerciale significativa … consultando Wikipedia ci sono studi teorici per modulare addirittura un Terabit su un doppino … probabilmente si tratterà di standard che non vedranno mai la luce, perchè ormai la diffusione di reti in fibra ottica che arrivano fino alla casa dell’utente (FTTH) stanno per diventare “comuni” … e non è ardito ipotizzare che entro fine decennio possa essere coperto anche un buon 90% del territorio nazionale, con il resto raggiunto da tecnologie wireless con una ragionevole larghezza di banda.

Di sicuro potrei scrivere un’articolo del titolo “L’evoluzione della fibra ottica negli ultimi 40 anni” … considerando che già si parla di “portate trasmissive” dell’ordine di centinaia di Terabit per distanze da dorsale sottomarina su fibre non amplificate.

Per finire, a proposito dei modem xDSL, ho riportato in immagine uno dei modelli più comuni di Fritz.Box, una linea di prodotti fra le più valide e apprezzate, della tedesca AVM, che potremmo ritenere di una popolarità da potersi paragonare ai modem analogici USRobotics … azienda che si è fermata a questi ultimi, con un’incursione poco significativa nel mercato delle prime tecnologie ADSL. A onor di verità avrei potuto utilizzare per l’intero articolo immagini di prodotti Zyxel, produttore ben noto dal mercato e che ha storicamente prodotto sia modem analogici che xDSL … resta che oggettivamente si sia sempre trattato di un “second player” nei casi più felici dei rispettivi mercati POTS e xDSL.

Al prossimo articolo … probabilmente fruito attraverso canali trasmissivi di portata sempre più ampia.

Venezia 30 Gennaio 2020 – Gramolazzo 21 Agosto 2021
MC5510 – Marco Piagentini

Hello world!

Welcome to WordPress. This is your first post. Edit or delete it, then start writing!

Ecco, modifichiamolo questo “primo post”, perché cancellarlo?

Del resto è questa la “logica” che ha animato i primi tempi di MC, tempi di “scarse risorse” in cui gli “informatici” dell’epoca sono stati addestrati a “spaccare” il bit pur di utilizzare al massimo la memoria il cui costo si misurava in kL/kb (Migliaia di Lire al kiloByte): a quei tempi si riciclava il bit, perchè oggi non riciclare un post?

MC-2020 nasce un po’ per scherzo un po’ no, ad opera di un piccolo gruppo di “informatici” accomunati dalla profonda convinzione che il patrimonio “MC-*”, in almeno alcune delle sue declinazioni (MU- incluse), non debba essere disperso … considerando la quantità di “cultura” prodotta e di professionisti “regalati” al mondo del lavoro, fra cui il sottoscritto che scrive …

In questa logica, poco conta che a scrivere il primo articolo sia un “figlio” di questo mondo piuttosto che un padre … infatti MC-2020 è regolato da un stringente codice etico, perché ciò che vi venga prodotto e pubblicato non possa servire fini privati se non a titolo di immagine.

No, MC non può “morire così”, dovevamo fare qualcosa … e così ecco che il primo aprile sarà condiviso con alcuni, un po’ un “pesce d’Aprile” (come tanti ne venivano fatti su MC) al contrario, un po’ un regalo al VCF, visto che i primi contenuti avranno un certo sapore “vintage” …

Venezia 31 Gennaio 2020
Marco Piagentini (MC5510)

Stampare, per esempio

(Editoriale – Luglio/agosto 1998)

Lo “strillo” principale della copertina di questo numero è legato ad un argomento che, di certo, coinvolge un numero molto ampio di utenti e, soprattutto, che può essere preso come un buon indice dell’evoluzione delle prestazioni dei prodotti informatici e della vitalità del mercato.

Copertina MCMicrocomputer Luglio/Agosto 1998

Basta andare di poco indietro nel tempo per uscire totalmente dalla realtà attuale: diciamo cinque anni fa, di stampare a colori se ne cominciava appena a parlare. Le stampanti dell’epoca ci meravigliavano ma, a ben vedere, non ci consegnavano stampe di particolare qualità, almeno per quanto riguarda le immagini; costavano cifre che consideravamo basse ma in assoluto molto più elevate dei modelli odierni, che offrono caratteristiche ben superiori. Per che cosa usavamo i computer, cinque anni fa? Per molte applicazioni, di certo, ma quanti di noi ne facevano un significativo impiego nel campo della gestione e del trattamento delle immagini, a livello amatoriale o professionale? Vi rispondo io: pochi. Perché all’epoca (strano dire “all’epoca” riferendoci solo a cinque anni fa…) le prestazioni dei computer non invogliavano a questo tipo di impiego. Facevano, sì, venire l’acquolina in bocca perché se ne cominciava ad intravedere la possibilità, ma si era poi costretti a fermarsi di fronte a problemi pratici tutt’altro che trascurabili: bisognava avere un “buon” processore (eravamo se non erro al passaggio fra 386 e 486), espandere molto la memoria, acquisire le immagini non era semplice e soprattutto non era economico, stampare gli elaborati aveva limiti significativi (si era sensibilmente al di sotto della qualità fotografica), archiviare le immagini era oneroso (non disponevamo di unità capaci ed economiche, né erano così accessibili i CD-writer).

Ora, un computer “normale” ha un processore super (perché oggi esistono solo quelli), ha una quantità enorme di RAM (se no Windows e i programmi non girano come si deve), ha un disco rigido di dimensioni gigantesche (perché quelli di dimensioni umane non si trovano e costano praticamente come gli altri), probabilmente ha un drive rimovibile da 100 megabyte (perché tanto costa poco, e poi che ci fai con un mega e quattro), non di rado uno scrittore di CD (perché ormai costano poco sia l’unità sia i supporti, tanto vale usare i CD per archiviazione e back-up); infine, lo scanner è un completamento che molti ritengono utile (costa poco e, non si sa mai, può servire…).

A questo punto, lavorare (o giocare) con le immagini non è più una possibilità riservata ai possessori di sistemi particolarmente evoluti e costosi, ma è alla portata dell’utente medio, addirittura del principiante che acquista il suo primo computer, specie se lo fa per giocare: paradossale, ma vero. E trattare le immagini (e soprattutto le proprie immagini) sul proprio computer è interessante, utile, stimolante. E’ certamente una delle migliori ragioni per avere un computer in casa.

Ah già, non ho messo la stampante nell’elenco… a cosa serve un computer senza stampante e, soprattutto, a chi? Davvero a pochi. E le stampanti… lo hanno capito benissimo: così, si offrono come accattivanti e promettenti. Prestazioni da favola, prezzi risibili (a patto, ma è il rovescio della medaglia, di non tener conto del costo delle cartucce di inchiostro). Fra cinque anni avremo stampanti migliori: quanto migliori, non lo sappiamo. Ecco perché il mercato è così euforico, così in continuo mutamento (ed evoluzione, naturalmente). Non ci si può lasciar prendere dalla voglia di aspettare il prossimo modello, non ha senso se non si vuole aspettare in eterno: tanto, dopo ogni modello ne esce un altro, e sarà migliore e costerà di meno (forse in assoluto, di sicuro in rapporto alle prestazioni).

Ma sappiamo benissimo che acquistare in queste condizioni è difficile: cioè, in realtà sarebbe facile, perché di “belle stampanti” ce ne sono tante, e le loro prestazioni sono in linea di massima confrontabili come i loro prezzi. Ma si sa che in questi casi si cerca di scegliere non solo o non tanto il meglio in assoluto, ma il meglio in relazione ai propri gusti e alle proprie esigenze. E per fare questo bisognerebbe provarne tante e poi decidere. Lo abbiamo fatto per voi e… ciascuno di noi ha individuato la stampante meglio rispondente ai propri desideri: vi auguriamo di fare altrettanto.

1 Luglio 1998
Marco Marinacci