Quale georeferenziazione usare per le mappe d'impianto nelle riconfinazioni?

Fausto, per risponderti compiutamente dovrei riproporti le decine e decine di pagine che ho dedicato a questo argomento sul mio libro Tecniche di riconfinazione. Ma siccome mi sembra di ricordare che tu il libro ce l’hai, ti ripropongo qui l’indice dei paragrafi che trattano il tema (è relativo alla nuova edizione che sto scrivendo, ma i paragrafi hanno lo stesso titolo):

3. GEOREFERENZIAZIONE E CORREZIONE DELLE MAPPE CATASTALI 159
3.1 LA GENESI DELLA MAPPA D’IMPIANTO 163
3.3 LE MAPPE D’IMPIANTO SU FILE RASTER 196
3.3.1 La situazione delle mappe d’impianto digitali in Italia 198
3.3.2 Perché le mappe raster devono essere georeferenziate 199
3.3.3 La deformazione della mappa d’impianto 205
3.5 LE MAPPE D’IMPIANTO GIÀ GEOREFERENZIATE DALL’AGENZIA 216
3.7 LA GEOREFERENZIAZIONE PARAMETRICA 301
3.7.1 Il “Metodo Tani” 302
3.7.2 L’algoritmo della Parametrica 307
3.7.3 Un esempio concreto 317
3.7.4 Gli errori da non commettere 338
3.7.5 Parametrica VS mappe georeferenziate AdE 349
3.7.6 Validità, limiti e alternative alla Parametrica 350
La curvatura dei parametri 350
Il difetto cartografico 353
Scalini e pieghe delle linee georeferenziate 355
L’illusione degli algoritmi che agiscono sul raster ricampionato 363
3.11.3 Le georeferenziazioni polinomiali 499
3.12 QUALE GEOREFERENZIAZIONE USARE? 502
3.12.1 Perché alcune georeferenziazioni non vanno bene? 504
3.12.2 Georeferenziazioni a confronto 508
3.12.3 La soluzione ottimale 513

Leggiti bene (se ti fa piacere, ovviamente) i paragrafi in grassetto. Come vedi, uno di questi si intitola Validità, limiti e alternative alla Parametrica. Questo ti dimostra come io abbia cercato i limiti anche di questa tecnica, oltre che di quelle alternative. E dopo avere analizzato il tutto con grande approfondimento (anche matematico) sono giunto alla mia conclusione. Che, ribadisco, né tu né nessun altro è obbligato a fare propria.

Tornando alla tua domanda, ti rispondo ribaltandotela:

Le conosci tu le deformazioni (isotrope o anisotrope) che ha subìto, su ciascun quadrante parametrico, la mappa d’impianto?

Io no !!!

Nel video da cui siamo partiti, ho visto fare un elenco di tutte le diverse deformazioni che avrebbe subito la mappa presentata. C’è addirittura quella con due frecce di verso opposto dove si dice che una parte della mappa si è stirata verso sinistra mentre l’altra metà si è stirata verso destra.

Siamo a quelle che Carlo Cinelli definisce “seghe mentali”.

Se leggi le pagine del mio libro di cui sopra, troverai che io parto dal presupposto che:

Noi non conosciamo assolutamente come si è deformata la mappa che stiamo utilizzando.

  • Si è solo dilatata o contratta uniformemente?

  • Si è invece dilatata o contratta in maniera disomogenea?

  • Su una zona si è dilatata mentre su un’altra si è contratta?

  • Si è deformata di più sui bordi (più a contatto con l’aria) e meno al centro?

  • Si è deformata di più sul lato destro perché quella zona è rimasta scoperta a lungo, mentre il resto della mappa era coperta dal plico degli altri fogli?

  • È stata “maltrattata” dagli operatori solo (o di più) su certi quadranti e non (o meno) su altri?

Potrei andare avanti con altri casi.

Pertanto, Fausto, se parti dal presupposto che non conosci la deformazione che è intervenuta … qualsiasi algoritmo che pretenda invece di conoscerla è fallace.

Per questo io sostego che il Metodo Tani è il più idoneo, perché parte dai soli incroci parametrici (che sono l’ossatura su cui sono state inserite le stazioni e i punti) e applica una semplice correzione proporzionale.

La tua illusione, da fan dei software, è che, disponendo oggi dei file raster, possiamo applicare tutti i più sofisticati algoritmi internazionali di ricampionatura delle immagini … che tanto le differenze con Tani sono contenute.

Questo, ripeto, è un errore concettuale (al di là delle differenze minime). E io gli errori concettuali cerco, se posso, di evitarli.

Ma tu, come detto, applica pure la Thin Plate Spline se la ritieni idonea. Solo che a quel punto, per coerenza dovresti provare anche le altre georeferenziazioni, ce ne sono a decine (esempio l’Omografia, il Rubber Sheeting, il “raddrizzamento”, ecc.).

Altrimenti, se usi la TPS solo perché ce l’hai nel software, non fai un’analisi compiuta. Ti fidi di quella e basta.

Ti sembra professionale?

Esatto Gianni NON CONOSCIAMO le deformazioni che la mappa ha subito e come queste si sono distribuite, e su questo siamo perfettamente d’accordo.

Il metodo Tani è perfetto laddove si prelevano le coordinate dal foglio cartaceo della mappa dove al massimo si approssimavano le misure sulle scalimetro al mezzo metro massimo in quanto se si andava oltre era una mera stima a vista soggettiva da tecnico a tecnico.

Ora con i software invece vogliamo andare a spaccare il capello… suvvia siamo seri.

Gianni questa tua definizione sinceramente mi lascia perplesso e non mi è piaciuta… io non sono “fan” di nessun software e il software che ho io (oltre a GEOCAT e CORRMAPP ora e prima ancora GEOREM) fino a qualche giorno fa non aveva neanche questa funzione del Thin Plate Spline, per cui ho utilizzato sempre CORRMAPP (fino al 31/12/2024 dato che ora mi è scaduta la licenza e la devo rinnovare).

Le mie riflessioni pertanto non sono legate alla parametrica, alla TPS, all’omografica etc, etc, ma ai risultati che queste tecniche di georererenziazione danno. Se i risultati sono ACCETTABILI mi sai dire perchè un metodo va bene e l’altro no?

I tuoi libri (due) li ho già letti e conosco le differenze tra parametrica e quella del “foglio di gomma”, ma io sono aperto a tutte le varianti tecnologiche ivi incluso i software… se i risultati sono coerenti e accettabili.

Tu invece ritieni che la parametrica è l’unica georeferenziazione idonea e le altre non servono a nulla (per le riconfinazioni parlo), io invece dico che la parametrica E’ LA MIGLIORE e le altre, se danno risultati accettabili, sono idonee ad essere utilizzate… questa è la differenza tra il mio pensiero ed il tuo.

Ora non ti rispondo più dato che oggi non mi hai fatto lavorare per nulla per starti appresso :slight_smile: :slight_smile:

A me lo dici, che sono quello che propone il Metodo Tani e contrasto gli algoritmi di ricampionatura dei pixel?

L’espressione “da fan dei software” voleva essere una battuta, ma mi rendo conto solo adesso che avrei dovuto metterci la faccina che ride. Ti chiedo scusa se ti sei risentito, non era certo quello il mio intento.

Mi sembrava di avertelo già detto, ma evidentemente non mi sono spiegato bene, per cui te lo ribadisco volentieri.

Io non parto dai RISULTATI delle varie georeferenziazioni, per cui se questi mostrano differenze contenute, allora vanno bene tutte.

Io parto dai CONCETTI. Se ritengo corretto il concetto su cui si basa un algoritmo, uso quello e basta, non mi perdo a usarne altri di cui non approvo il concetto. Non mi interessa se i risultati possono essere assimilabili.

Spero di essere stato chiaro stavolta, altrimenti dimmelo.

L’errore che fai tu (ma sei in ottima compagnia) è quello di considerare il file raster della mappa d’impianto come se tale file esistesse da sempre, cioè come se la mappa fosse già nata come immagine.

Invece la mappa d’impianto è nata ed è rimasta su CARTA per un secolo o quasi.

Per questo dico che va trattata esattamente come la trattava Tani con lo scalimetro.

Le tecniche di ricampionamento dei pixel sono state studiate per le immagini effettive, come gli algoritmi che ti raddrizzano una facciata dall’immagine prospettica che ottieni da una foto.

Tuttavia ripeto, non voglio convincerti, se ritieni di utilzzare altre georeferenziazioni, non ti considererò meno competente. Hai un’opinione diversa dalla mia, è normale. Ti ho perfino detto che, se altri sono di questa tua opinione, io non mi oppongo a inserirla nelle linee guida.

Più di così, Fausto, cosa pretendi da me?

Il buon Tani diceva che quando non abbiamo informazioni certe bisogna ricorrere alle PRESUNZIONI. E aveva ragione.
Pertanto noi sappiamo che la mappa è stata costruita tenendo conto dei parametri.
Che non è detto che i quadrati fossero perfettamente 10x10 originariamente. Le mappe arrivavano già parametrate da Fabriano o venivano parametrate attraverso speciali lastre in INVAR. Non c’erano le tecnologie ultra-precise di oggi per disegnare i parametri.
E quindi bisogna PRESUMERE che le coordinate dei punti di stazione fossero stati riportati in modo proporzionale e che le deformazioni siano state anch’esse (ammesso che ci siano state) proporzionali.
Quindi il buon Tani che la sapeva lunga aveva indicato una modalità siccome la più idonea per prelevare le coordinate.
Tutti quegli algoritmi che tendono a ripercorrere quel processo sono corretti.
La sensazione che ho sempre avuto è che nessuno, ad eccezione di Gianni, abbia mai dato troppo peso e abbia mai perso del tempo a ricreare un qualcosa di analogo.
Ci sono sul mercato degli studi e degli algoritmi standard relativi alla ricomposizione delle immagini e queste si chiamano a seconda della procedura Pippo, Pluto o Paperino.
E ci si è affidati a questi. STOP.

No, non sono d’accordo.
Innanzitutto perché non ci si può riferire a un Delta fisso di accettabilità.
Ci sono mappe più o meno deformate e quindi questo parametro non può valere per tutte le occasioni.
E poi perché non è nemmeno concettualmente corretto. Che messaggio è: ti puoi spingere fino a… dalla procedura corretta? E come si fa a misurare la differenza dalla procedura corretta, se uno conosce la coordinata corretta prende quella.
In ultimo dico che le linee guida nascono per evitare gli errori di metodo ma non vogliono essere assolutamente una gabbia alla redazione della Perizia.
Sta alla sensibilità del Perito Tecnico il ritenere se usare altra procedura per lui accettabile.
Io personalmente diffiderei di procedure non corrette.
Anche perché bisogna sempre mettersi al riparo dal problema che qualcun’altro possa aver fatto procedure migliori delle nostre.

Il Test che ho fatto (ma di cui non pubblico ancora i risultati perchè prima vorrei avere riscontro sul metodo utilizzato) si è così svolto :

  1. su una mappa catastale di impianto (risoluzione 300dpi) per avere una identificazione univoca, ho colorato alcuni pixel corrispondenti ognuno a spigoli di fabbricato presenti sulla mappa ed invariati in loco, oltre ad altri vertici di particella non più rintracciabili (come se dovessi fare una riconfinazione)
  2. ho georeferenziato il foglio di mappa con varie metodologie (11 metodi con due software diversi)
  3. dopo aver georeferenziato le mappe, ho estrapolato le coordinate dei vertici omologhi (stesso pixel) dopo ogni “trasformazione”
  4. con una rototraslazione baricentrica rigida, ho inquadrato le coordinate degli spigoli da mappa su le coordinate reali degli spigoli, sovrapponendo così le risultanze delle varie georeferenziazioni
  5. ho confrontato tra loro le coordinate dei vertici di particella risultanti dalle varie georeferenziazioni, così da avere le coordinate dei vertici che andrei a picchettare in caso di una riconfinazioni.

I risultati sono stati… :slight_smile:

Vi anticipo soltanto la mia conclusione : il metodo migliore è quello che ti consente di portare a casa il risultato che ti serve in quella specifica situazione

1 Mi Piace

Ciao Roberto,
sì, mi sembra che il lavoro che hai descritto sia valido, aspettiamo di vederlo.
A questo proposito ti consiglio, se puoi, di redigere una tabella (meglio su Excel così è più condivisibile), nella quale riporti le coordinate che ti hanno dato le varie georeferenziazioni per i punti selezionati, così potremmo renderci conto anche numericamente delle differenze.

Ciao Roberto.

Cosa pensi di fare?

Dopo aver georeferenziato la mappa catastale in 12 modalità diverse, ho confrontato i risultati, che scaturiscono utilizzando Coormap oppure altro software (di cui ometto il nome).
In particolare ho confrontato le coordinate dei singoli vertici presi a campione, dopo ogni tipo di georeferenziazione, riportando nella tabella riepilogativa allegata, di quanto si discostano dalla coordinata media (media geometrica eseguita tra tutti i risultati).
Gli scarti secondo me sono abbastanza contenuti, (un pixel corrisponde a circa 16.5 cm) eccetto per la georeferenziazione radiale gaussiana che da differenze di metri e la catastale che di fatto scala la mappa senza “correggerla”.
Se riesco, prossimamente pubblicherò il test completo aggiungendo anche la georeferziazione che sto provando con altri software