I metodi matematici e statistici in archeologia

Ricerca archeologica. Le analisi matematico-statistiche e l’archeologia sperimentale 

I METODI MATEMATICI E STATISTICI IN ARCHEOLOGIA

di Amilcare Bietti

L’insieme delle tecniche matematiche e statistiche per l’analisi dei dati archeologici cresce di anno in anno, a causa degli effettivi progressi nelle tecniche di scavo, nella raccolta dei dati e nella loro classificazione, ma, soprattutto, nel continuo perfezionamento degli strumenti tecnici di analisi e di classificazione. Diverse sono le applicazioni all’archeologia (in particolare a quella preistorica): analisi statistiche dei dati, modelli matematici e simulazione, sistemi di informazione geografica (GIS, Geographic Information System, e programmi equivalenti), gestione di dati e costruzione di banche-dati computerizzate, ecc.

Alcune di queste, ad esempio le banche-dati o i sistemi di informazione geografica, rientrano più propriamente nel settore dell’informatica applicata, mentre il trattamento statistico dei dati, che è l’argomento di cui si tratta in queste pagine, si serve del calcolatore solo come ausilio tecnico.

Passando ora più propriamente alle analisi statistiche, oltre ad articoli su riviste specializzate e, soprattutto, nei rendiconti dei convegni periodici della IV Commissione dell’Union Internationale des Sciences Préhistoriques et Protohistoriques (UISPP) e della Computer Applications in Archaeology (CAA), esistono una serie di testi ” classici” su cui basarsi, a partire dallo “storico” libro di J.E. Doran e F. Hodson (1975), seguito da vari volumi come quello di C. Orton (1980), o il più recente di F. Djindjian (1991).

In generale questi testi sono strutturati in modo da affrontare i problemi archeologici e descrivere di volta in volta le tecniche di analisi che si possono impiegare. In questa sede, invece, si seguirà il processo inverso: partire dai metodi statistici, in scala di complessità, e mostrare di volta in volta esempi di applicazione archeologica.

Per ragioni di spazio, la trattazione si limiterà alle tecniche più note per le loro applicazioni archeologiche, cercando di fornire una descrizione più semplice possibile delle tecniche impiegate e delle loro applicazioni. Le tecniche statistiche tradizionali si dividono in due rami principali: quelle descrittive, nelle quali si analizzano solo campioni di popolazioni, e quelle inferenziali dove si traggono conclusioni o “decisioni statistiche” sulle popolazioni a partire da campioni che le rappresentano. È abbastanza ovvio pertanto che la natura stessa dei dati archeologici, basata quasi esclusivamente su singoli campioni (scavi, collezioni di musei, ecc.), rende problematico l’uso della statistica inferenziale, come vedremo in seguito. Inoltre, anche per quanto riguarda solo la statistica descrittiva, bisogna rendersi conto che l’uso di queste tecniche non ha niente di “miracoloso” in sé: è opinione diffusa di molti archeologi, specie di orientamento classico, che l’uso dei calcolatori possa svelare misteri e arcani non osservabili dall’occhio diretto ed empirico dell’archeologo.

D’altra parte è largamente diffusa anche l’opinione opposta, e cioè che queste tecniche sono “pericolose” perché non tengono conto della variabilità intrinsecamente dovuta al “fattore umano”, che non è direttamente quantificabile.

In realtà si tratta semplicemente di una questione di buonsenso: in molti casi le evidenze qualitative sono così chiare che la quantificazione non è necessaria; esistono però diversi casi dove il dubbio tra varie scelte impone qualche forma di controllo quantitativo, come vedremo anche in seguito. In ordine di complessità, si partirà dalla statistica univariata, dove si considera una sola variabile alla volta (ad es., la lunghezza di uno strumento, il diametro di un vaso, ecc.), per passare poi alle varie tecniche di statistica multivariata (da due variabili in poi).

STATISTICA UNIVARIATA

Statistica descrittiva – Misure di tendenza centrale e di dispersione – Bisogna innanzitutto tenere conto che esistono due tipi di variabili, quelle continue e misurabili (lunghezze, larghezze, ecc.), che, in linea di principio, possono essere portate ad una precisione illimitata con strumenti appropriati, e quelle discrete, che non sono suddivisibili in unità ulteriori. In prima istanza, l’analisi univariata si riferisce a variabili continue, anche se vedremo qualche esempio di variabili discrete. Il primo passo è guardare alla struttura dei dati: a questo proposito, il metodo più usato, per le variabili continue, è la costruzione di un istogramma. Sull’asse delle ascisse vengono riportati i valori dei parametri continui (ad es, le misure), suddivisi in “pacchetti” (bins) e cioè entro un intervallo di valori (“passo” dell’istogramma), mentre sull’asse delle ordinate vengono riportate le frequenze degli oggetti compresi nei bins, a volte rappresentate tramite percentuali (Fig. 426: alternativamente si può anche costruire un poligono di frequenza che congiunge i punti medi dei rettangoli dell’istogramma). Nel caso di variabili discrete, l’analogo degli istogrammi sono bar charts: in Fig. 427 ne è raffigurato uno per le percentuali di tipi litici del Paleolitico. È inutile dire che, in questo caso, data l’impossibilità di suddividere i bins, tutte le misure statistiche descritte in seguito sono inutili. Gli istogrammi di variabili continue ci danno subito un’idea visiva dell’andamento dei dati: ad esempio, se ci sia o no una concentrazione preferenziale di frequenze intorno a uno o più valori delle variabili. L’implicazione archeologica di questo procedimento è evidente: concentrazioni di frequenze intorno a uno o più valori implicano qualche forma di “intenzionalità”, di misura da parte dell’artigiano primitivo e questo porta subito a cercare una quantificazione di queste intenzionalità tramite quelle che vengono chiamate misure di tendenza centrale, descritte da tre valori: la moda, la media e la mediana. La moda è il valore di massima frequenza dei dati: quindi vi possono essere anche più mode. La ricerca della multimodalità è stata uno dei principali elementi, quanto meno in passato (Peroni 1966), di ricerca di sistemi monetali nei bronzi antichi prima dell’avvento delle monete “simboliche”. Bisogna però essere molto attenti alla scelta del passo dell’istogramma (dettata spesso da considerazioni di buonsenso): per gli istogrammi di Fig. 426, ad esempio, dove il passo scelto è di 5 mm (a sinistra) la distribuzione è multimodale, mentre con la scelta di un passo più grande (a destra) la distribuzione diventa unimodale. La media non dipende dal passo dell’istogramma ed è definita dalla formula dove xi è la misura della i-esima variabile ed n è il numero totale di oggetti. La mediana, invece, è il valore della variabile che divide in due l’area della distribuzione; le successive divisioni in quattro, dieci, ecc. prendono il nome di quartili (il secondo quartile è ovviamente la mediana) e di decili. Inutile dire che, per le curve simmetriche unimodali come ad esempio la gaussiana, moda, media e mediana coincidono, mentre non è questo il caso di altre distribuzioni (sempre unimodali) che sono in genere asimmetriche, come accade nella maggioranza dei casi archeologici. Altre misure molto rilevanti nella statistica descrittiva (sempre in casi unimodali) sono le misure di dispersione, che indicano il grado di concentrazione dei dati intorno al valore di tendenza centrale. La più comune di queste misure è lo scarto quadratico medio, o deviazione standard, definito dall’espressione dove compaiono gli stessi simboli dell’equazione precedente. La deviazione standard ha un notevole valore di predizione descrittiva nel confronto tra due o più campioni, perché, per le distribuzioni normali (gaussiane o “a campana”) ha un significato probabilistico immediato. Prima di addentrarci in questo problema sarà utile, però, dare qualche cenno alle distribuzioni teoriche di probabilità più comuni e sul loro uso come stima “a priori” di errori o incertezze sui dati acquisiti.

Distribuzioni teoriche di probabilità – L’utilità delle distribuzioni teoriche deriva dal fatto che le quantità come media e deviazione standard hanno valori definiti matematicamente e, quindi, possono essere utili per stime di prima approssimazione delle incertezze sulle distribuzioni sperimentali, nonché per valutare in senso empirico deviazioni di queste ultime rispetto alle distribuzioni teoriche in questione. Innanzitutto, però, è bene definire il concetto di probabilità. La definizione più comune è la seguente: dato un numero N di “eventi possibili” (tutti equiprobabili e cioè equally likely), la probabilità p che si verifichi un evento E è data dal rapporto tra il numero di casi “favorevoli” h e il numero di casi possibili N, e cioè p = h/N. Inutile dire che questa definizione è un po’ “circolare”, perché il solo termine “eventi equiprobabili” richiede una definizione “a priori” della probabilità. Senza andare a concetti più formali, basterà accennare qui all’approccio “frequentista”: la definizione di probabilità, così come è stata data, coincide in pratica con quella di frequenza (o, meglio, di percentuale di frequenza), quando N diventa molto grande e cioè tende all’infinito. Diamo qui alcuni casi semplici di distribuzioni di probabilità, tenendo ben presente che bisogna distinguere tra le distribuzioni discrete (ad es, per calcolare la probabilità che venga h volte croce su N lanci di moneta, o di avere 1 su N lanci di dadi) e quelle continue (ad es, per calcolare la probabilità che la lunghezza di un oggetto sia compresa tra 25 e 25,5 cm). La più semplice delle distribuzioni discrete è la binomiale, che dà la probabilità che, su N prove, si abbiano x casi favorevoli a partire dalla probabilità p per una singola prova. La media e la deviazione standard sono, rispettivamente, μ = Np e σ = √Npq, con q = 1-p. Tranne che nel caso di p = 0,5 (il lancio della moneta) la distribuzione non è simmetrica. Per N molto grande, si può assimilare ad una distribuzione continua e diventa praticamente una distribuzione normale. La distribuzione binomiale serve per calcolare valori esatti di probabilità e dare stime di deviazioni standard nei casi si – no (lo schema di Bernoulli), come vedremo da una stima teorica a priori della deviazione standard nel calcolo dei coefficienti di similarità nel caso della cluster analysis tramite attributi discreti, ad esempio per le tombe di una necropoli. Se si è in presenza di eventi rari e cioè con p molto piccola (ad es., anche il caso della singola carta da estrarre da un mazzo di 40 carte, dove p = 0,025) e, nel contempo, N diventa molto grande, si può considerare la variabile unica λ = Np; si arriva così alla distribuzione di Poisson. La media e la deviazione standard diventano ora semplicemente μ = λ e σ = √λ. Per λ grande, la distribuzione di Poisson diventa praticamente continua e, come al solito, si approssima alla normale. Le applicazioni di questa distribuzione in archeologia sono molteplici. Come primo esempio ne sceglieremo uno di carattere più “archeometrico”: il calcolo dell’incertezza sulle date convenzionali con il metodo del radiocarbonio. Com’è noto, le date convenzionali si effettuano tramite il conteggio degli elettroni di decadimento in contatori e l’errore statistico su di essi si calcola con la distribuzione di Poisson che poi si propaga sull’errore statistico relativo alla data, che è il risultato finale per l’archeologo. Un secondo esempio che possiamo citare è quello delle prime analisi spaziali intrasite, ossia della nearest neighbor analysis (Whallon 1974), e cioè il tentativo di riconoscere concentrazioni preferenziali di oggetti su una superficie di scavo. Ad esempio, se si ha uno ha un numero di oggetti N su di un’area A, con densità data da d = N/A, la distribuzione di Poisson dà il valore della media delle distanze dal prossimo vicino in caso di distribuzione random da confrontare con quella data. La distribuzione normale o gaussiana è una distribuzione continua data dall’espressione dove μ e σ sono appunto la media e la deviazione standard. L’importanza della normale sta nel significato probabilistico che si può dare alle varie aree della curva, quella compresa tra una deviazione standard a sinistra e a destra della media (68,27%), due deviazioni standard (95,45%) e così via. La situazione è chiaramente visibile in Fig. 428, dove la distribuzione è trasformata in termini di variabile standardizzata z = (x ‒ μ)/σ. Il significato probabilistico è ovviamente utile quando si deve valutare (in modo descrittivo) la sovrapposizione tra distribuzioni provenienti da campioni diversi, come ad esempio la lunghezza delle lame di selce di un sito con quella delle lame di un altro sito, o similmente per elementi ceramici.

Cenni di statistica inferenziale – Come si è già detto nell’introduzione, la statistica inferenziale prende decisioni statistiche su popolazioni a partire da campioni. Per quest’operazione è necessario introdurre il concetto di distribuzione campionaria (sampling distribution) e conseguentemente quello delle decisioni statistiche per “grandi” campioni: questo verrà esposto, con qualche esempio, nel prossimo paragrafo. In quelli successivi, invece, si tratterà principalmente di “piccoli” campioni, con due casi classici di distribuzioni campionarie: la t-Student’s e quella del χ² (chi-quadro), ampiamente applicate in casi archeologici.

Distribuzioni campionarie, teorema del limite centrale e decisione statistica – L’inferenza statistica si basa su due fattori fondamentali: la teoria del campionamento (sampling theory) e il concetto di distribuzione campionaria. Esistono ottimi esempi nei metodi seguiti per i sondaggi d’opinione per spiegare bene questi concetti, ma è preferibile un esempio archeologico, che è in realtà un exemplum fictum, dotato però di una base archeologica reale. Non lontano da Roma, esiste un giacimento del Paleolitico superiore finale (il cosiddetto Epigravettiano finale) molto noto: Grotta Polesini, presso Tivoli (Radmilli 1974), datato a circa 10.300 anni da oggi, dove gli scavi del 1953 hanno riportato in luce, oltre a opere d’arte mobiliare, una quantità inverosimile di resti faunistici e di industria litica. Basti pensare, infatti, che solo per gli strumenti formali (cioè quelli ritoccati) nei 12 tagli praticati i numeri sono dell’ordine di 7000 grattatoi, 40.000 strumenti a dorso e così via. La parte non ritoccata, come schegge, lame e lamelle, non è stata conteggiata, ma una stima ragionevole delle lame e delle lamelle può collocare il loro numero intorno al centinaio di migliaia di pezzi. Supponiamo quindi, e qui è l’exemplum fictum, che si vogliano valutare le medie e le deviazioni standard della lunghezza o della larghezza delle lame e delle lamelle rinvenute durante gli scavi per paragonarle con quelle di altri giacimenti coevi. Data la dimensione quantitativa dell’insieme (che, in questo caso, è una vera e propria popolazione), è naturale che si debbano fare le stime su campioni. Il problema quindi è come deve essere scelto il campione per essere rappresentativo della popolazione. Quali procedure occorre seguire per ottenere una buona stima delle grandezze sopra descritte? Innanzitutto, il campione deve essere random, e cioè casuale: nell’esempio delle lame e delle lamelle di Grotta Polesini, bisogna stare attenti, dopo averle messe in una cassetta, a rimescolarle bene, per evitare che i pezzi piccoli finiscano in fondo e quelli più grandi in alto! In casi più complicati, come nella scelta delle zone da scavare in un villaggio preistorico molto esteso, si può ricorrere a procedure di random sampling. Dopo avere eseguito una quadrettatura di tutta la superficie, si scelgono i quadrati da scavare secondo una sequenza di numeri casuali. È chiaro che i campioni archeologici sono raramente rappresentativi di una popolazione, perché provengono da scavi diversi e ognuno di questi ha una sua specificità. Il caso di Grotta Polesini è ovviamente più semplice, perché la popolazione è costituita solo dal contenuto della cassetta delle lame e delle lamelle. Il prossimo passo è quello di definire la distribuzione campionaria della popolazione: si prende un primo campione di circa un centinaio di pezzi e si calcola la media delle lunghezze delle lame, poi un secondo campione di dimensioni simili (volendo, si possono rimettere nella scatola i pezzi precedenti), e si ripete l’operazione, e così via, fino a k campioni. Considerando ora tutte le medie ottenute, si ha la distribuzione campionaria della media, della quale si può calcolare media e deviazione standard. Lo stesso si può fare per altre quantità, come la mediana o la deviazione standard, calcolando così la media delle mediane, la media delle deviazioni standard, ecc. Il punto principale è che, quando la dimensione del campione è grande, la distribuzione campionaria tende ad una distribuzione normale (teorema del limite centrale) e quindi si possono applicare tutte le considerazioni e le stime probabilistiche usate per le gaussiane (Fig. 428), indipendentemente dal tipo di distribuzione della popolazione. In pratica, per molte quantità, è sufficiente che la dimensione del campione sia maggiore o uguale a 30: per campioni più piccoli si applicano le statistiche di piccoli campioni, come vedremo nel prossimo paragrafo. Naturalmente, all’atto pratico, tutta la procedura per la costruzione della distribuzione campionaria è puramente teorica: come distribuzione campionaria si prende il singolo campione, purché, naturalmente, sia random. Come esempio della relazione tra le quantità della distribuzione campionaria e quelle della popolazione possiamo citare la media:

formula

dove N è la dimensione del campione. Si noti che la deviazione standard della distribuzione campionaria è estremamente più piccola di quella della popolazione. Una quantità utile, per i confronti tra popolazioni diverse, è la differenza delle medie

formula

Il fatto che la distribuzione campionaria sia approssimativamente normale ci permette di fare delle stime probabilistiche sui parametri della popolazione in termini di limiti di confidenza zc: ad esempio, se zc = 2,00 il livello di confidenza è del 95,45%, mentre se zc = 3,00 il livello di confidenza è del 99,73%. Il complementare del livello di confidenza si chiama livello di significatività e si indica con p. Il problema è poi quello della decisione statistica, e cioè di decidere tra ipotesi alternative, come ad esempio se il mio campione appartiene o no ad un tipo di popolazione e a quale livello di significatività, o a che livello di significatività due popolazioni sono uguali o diverse: in questo ultimo caso si parla di test dell’ipotesi di zero (null hypothesis). Come decidere a che livello di significatività possiamo accettare un’ipotesi (ad es., quella di zero) e quindi rifiutare quella alternativa? Il limite più comunemente accettato è p = 5%, corrispondente a zc = 1,96, ma si può essere più severi o meno in base al caso che si sta trattando. È utile, a questo punto, illustrare con esempi concreti il test dell’ipotesi di zero tra due popolazioni. Il primo esempio riguarda ancora un caso del Paleolitico superiore italiano (in questo caso della Puglia): il confronto tra una particolare categoria di strumenti, le punte a tacca, o à cran, abbastanza comuni in Puglia, di un celebre giacimento del Gargano, Grotta Paglicci (Mezzena – Palma di Cesnola 1967), e di uno del Salento, Taurisano (Bietti 1979), provenienti da strati datati in entrambi i casi tra 16.000 e 15.000 anni da oggi. Si tratta in sostanza di punte di freccia ad una sola aletta (formata appunto dalla tacca): una loro rappresentazione schematica è data in Fig. 429, con le varie grandezze misurate. Il campione di Paglicci è costituito da una novantina di pezzi, mentre quello di Taurisano da una trentina. Se si considerano le larghezze di questi strumenti, la media e la deviazione standard per Paglicci sono rispettivamente 1,11 cm e 0,35 cm, mentre a Taurisano sono 0,95 cm e 0,24 cm. Entro due deviazioni standard i campioni sono ampiamente sovrapponibili, dal punto di vista descrittivo, mentre dal punto di vista inferenziale il livello di significatività p è solo dell’1% perché sia verificata l’ipotesi di zero (corrispondentemente, il livello di confidenza che le due popolazioni siano diverse è del 99%): si vede qui bene l’effetto della riduzione della deviazione standard nella distribuzione campionaria. Per quanto riguarda altre grandezze illustrate in Fig. 429, per il rapporto S/l si ha p = 100% per l’ipotesi di zero, mentre per lc si ha circa il 65% e per il rapporto Lc /lc il 15%, valori troppo alti per non essere rilevanti. Se si vuole trarre qualche conclusione archeologica da questo esempio, a parte la larghezza totale dei pezzi (non si è tenuto conto della lunghezza, dato che i pezzi interi sono molto pochi), sembra che anche da un punto di vista inferenziale le due popolazioni siano molto simili, anche se i giacimenti si trovano a più di 200 km di distanza tra loro. In effetti, sembra esservi una certa unità e peculiarità formale di queste punte à cran nella zona adriatica sud-orientale in contrasto con altre regioni d’Italia (Bietti 1980). D’altro canto, bisogna anche tenere conto che i campioni sono abbastanza lontani dall’essere random: gli strumenti di Paglicci provengono da una zona limitata della superficie della grotta (Mezzena – Palma di Cesnola 1967) e quelli di Taurisano addirittura da uno scavo di salvataggio (Bietti 1979). Ci si è finora soffermati solo sul problema della differenza tra le medie di due campioni per “inferire” sulle popolazioni: se si vogliono trattare contemporaneamente più campioni, bisogna allora ricorrere a tecniche più sofisticate, come l’analisi della varianza, che qui evitiamo di trattare, non solo per la complessità delle formule, ma anche per i limiti richiesti sulla scelta dei campioni in relazione con le rispettive popolazioni.

Piccoli campioni: la distribuzione t-Student’s – Per piccoli campioni (e cioè inferiori a 30) la distribuzione campionaria non obbedisce più al teorema del limite centrale, e quindi non è più rappresentabile secondo una distribuzione gaussiana. In questi casi, invece della variabile z, si usa la variabile analoga

formula

Per N abbastanza grandi la quantità t si riduce praticamente alla quantità z, e quindi la distribuzione campionaria diventa normale. Tutti gli esempi precedenti possono essere trattati con la quantità t e, infatti, i vari packages statistici a disposizione anche sui normali PC considerano solo la statistica con il t-Student’s, che ovviamente calcola il valore di p secondo una distribuzione campionaria opportuna, la cui formula, qui non riportata, è diversa (quanto meno fino a N = 30) da quella fornita dalla gaussiana. Le tabelle dei valori di p sono comunque a disposizione in qualunque testo elementare di statistica. Distribuzione e test del χ² – Consideriamo il caso in cui si abbiano n eventi osservati oi per un certo fenomeno e si voglia confrontarli con analoghi eventi aspettati ei secondo una distribuzione random, come, per eventi discreti di cui qui stiamo trattando, quella di Poisson. Lo scostamento tra distribuzione osservata e distribuzione aspettata si può misurare tramite la quantità

formula.

Questa quantità è ben approssimata da una distribuzione campionaria (quella del χ²), di cui non scriviamo qui la formula, purché ognuna delle ei sia almeno uguale a 5. In questo caso, opportune tabelle danno i valori di p per vedere la significanza dello scostamento dall’ipotesi di indipendenza (e cioè quella rappresentata dalla distribuzione di Poisson). Questo tipo di χ² si chiama “non parametrico”, perché tratta con numeri interi. L’espressione sopra riportata riguarda eventi ad un solo indice e va sotto il nome di tabella di classificazione ad una sola entrata. Nella pratica archeologica, invece, sono di maggiore interesse le tabelle a due entrate, che rendono conto della correlazione tra più eventi e vanno sotto il nome di tabelle di contingenza. In questo caso le frequenze osservate e aspettate diventano a 2 indici, oij ed eij, e l’espressione diventa

formula

Come si costruisce la tabella dei valori aspettati? Prendiamo l’esempio pratico di una tabella 2 ×2: se esiste una correlazione tra forme di ceramica (tazze e brocche) e la presenza o assenza di decorazione su di esse. Nella Tab. 1 è inclusa la tabella dei valori osservati: tenendo fissi i totali marginali delle righe e delle colonne (nel nostro caso 70, 40, 55 e 55), la tabella dei valori aspettati si ottiene semplicemente considerando per ogni casella il prodotto dei totali marginali corrispondenti e dividendo per il numero totale dei pezzi (110 nel nostro caso); ad esempio, e₁₁ = 55×70/110 = 35. La tabella dei valori del χ² è ottenuta tramite la formula indicata. Si ha un valore del χ² totale di 15,8 che, con un numero di “gradi di libertà” (numero di parametri liberi del problema) uguale a 1, dà, secondo le opportune tabelle della distribuzione del χ², presenti in ogni testo di statistica, un valore p⟨⟨0,5%, e pertanto la ripartizione della decorazione tra tazze e brocche si discosta molto significativamente dall’ipotesi random. Il numero di gradi di libertà si calcola secondo la formula ν = (r ‒ 1)(c ‒1), dove r e c sono rispettivamente il numero di righe e di colonne della tabella di contingenza. Si possono anche introdurre dei coefficienti di associazione, come ad esempio quello di Cramèr V e quello di Person C. V varia sempre tra 0 e 1, mentre C, per tabelle quadrate (cioè con r = c) varia tra 0 e Cmax = = c/(c ‒ 1). L’utilizzazione delle tabelle di contingenza per problemi archeologici è forse il primo esempio di applicazione statistica all’archeologia, e, in particolare, alla tipologia che ha come “data di fondazione” il 1953, con l’articolo di A.C. Spaulding. Vediamo ora alcuni esempi pratici. Il primo riguarda la correlazione tra assottigliamento prossimale (dalla parte della base) e distale (dalla parte opposta) di lamelle a dorso e piccole punte a dorso, le cosiddette microgravettes, molto comuni nel Paleolitico superiore finale d’Europa e particolarmente abbondanti in Italia. Il caso in studio è quello del giacimento epigravettiano di Palidoro, vicino a Roma, datato con il metodo del radiocarbonio a circa 15.000 anni da oggi (Bietti 1976-77). La Tab. 2 mostra che c’è una netta preferenza nelle microgravettes per un assottigliamento inverso della parte appuntita del pezzo, indipendentemente dal fatto che questa sia nella parte prossimale o distale, mentre per le lamelle a dorso questa distinzione è praticamente irrilevante. Il valore del χ² totale è insolitamente alto ( p⟨⟨0,01%) così come sono alti i coefficienti V e C. In Tab. 3 vediamo un esempio di segno opposto: si tratta di stabilire se esiste una differenza di distribuzione tra i diversi tipi di raschiatoi del giacimento musteriano di Grotta Guattari al Monte Circeo, strato 2 (Taschini 1979), datato a circa 65.000 anni da oggi, e dello strato d di Torre in Pietra (Roma), che non è datato, ma viene comunemente attribuito all’inizio dell’ultimo Interglaciale, circa 120.000 anni da oggi (Piperno – Biddittu 1978). Si tratta di una tabella 2 ×8 e, come si vede, la probabilità p che i due giacimenti siano simili, e quindi dell’ipotesi random, è insolitamente alta, mentre il coefficiente di Cramèr è decisamente basso. Il risultato è sorprendente, se è vero che i due giacimenti sono così distanti nel tempo. Si possono usare anche tabelle a più di due entrate, e cioè multidimensionali: in questi casi il calcolo dei valori aspettati è piuttosto laborioso e serve l’uso di un elaboratore elettronico. Applicazioni in questo senso sono state fatte per le tipologie ceramiche: si veda, ad esempio, il lavoro di R. Whallon sulla tipologia della ceramica Owasco dello Stato di New York (Whallon 1972).

STATISTICA MULTIVARIATA

Il metodo delle tabelle di contingenza costituisce già di per sé una forma di statistica multivariata per quantità discrete (frequenze, e cioè numeri interi). Sarebbe un grave errore applicare il test del χ² a quantità continue arbitrariamente divise in classi discrete. Per le variabili continue o miste (e cioè continue e discrete) si usano altre tecniche. Queste tecniche appartengono essenzialmente all’ambito della statistica descrittiva: la statistica multivariata inferenziale (come, ad es., l’analisi discriminante di Fisher) si usa raramente per problemi archeologici, soprattutto per le ipotesi molto restrittive che vengono fatte in merito alle caratteristiche della distribuzione dei campioni, mentre è largamente usata per problemi di biologia e biomedicina. Dato che i concetti degli spazi multidimensionali non sono molto familiari per il lettore comune, si inizierà con problemi di statistica bivariata e cioè in due dimensioni, per poi passare ad esempi di problemi multidimensionali.

Statistica bivariata – In questo caso, considerando ora due variabili x e y simultaneamente (ad es., la lunghezza e la larghezza di uno strumento di selce, o l’altezza e il diametro di un vaso di ceramica), oltre alle due medie x‒ e y‒ delle variabili e agli scarti quadratici medi sx ed sy bisogna considerare un’altra quantità chiamata covarianza sxy, che permette di introdurre il coefficiente di correlazione lineare, definito da

r = sxy/sxsy,

con il quale si valuta il grado di correlazione tra x e y: esso varia tra -1 (correlazione negativa) e +1 (correlazione positiva). La rappresentazione in due variabili dei dati si effettua tramite una nuvola di punti o scatterplot, che è l’analogo dell’istogramma. In Fig. 430 vediamo appunto tre casi di correlazione: positiva, negativa e nulla. La correlazione tra due variabili si può mettere in evidenza tramite una curva interpolante i punti della nuvola: la più comune di queste curve è ovviamente la retta (come quelle mostrate nei due primi casi della Fig. 430), che si chiama retta di regressione (in questo caso si tratta della regressione di y su x) e ha espressione analitica

y = a+bx,

dove i coefficienti a e b (quest’ultimo rappresenta la pendenza della retta) si determinano con il metodo dei minimi quadrati e cioè imponendo che il quadrato della distanza tra i valori delle y stimati tramite l’espressione stessa e quelli osservati sia minima. Si può anche costruire allo stesso modo una retta di regressione di x su y, semplicemente invertendo le variabili, con altri coefficienti a’ e b’. Se la nuova retta è esattamente speculare alla prima, il coefficiente di correlazione ha il suo valore massimo +1 (o, in caso di correlazione negativa, -1). Come semplice esempio archeologico di analisi di correlazione si può citare la relazione che A.J. Ammerman e L.L. Cavalli-Sforza mostrano tra lo spazio e il tempo per la diffusione dell’agricoltura e dell’allevamento a partire da un centro diffusore (nel nostro caso Gerico, nel Medio Oriente). Questa relazione è stata presa dagli autori come base per un’ipotesi di espansione “demica”, e cioè di vera e propria espansione di popolazione nello spazio e nel tempo. In Fig. 432 si può vedere la nuvola di punti (i siti archeologici considerati), con conseguente retta di regressione tra il tempo e lo spazio. La correlazione dei dati è notevolmente alta (r = 0,89), anche se questo non significa necessariamente che l’espansione sia di tipo “demico”. Gli scatterplots e le rette di regressione possono essere anche molto utili per mettere in evidenza concentrazioni di punti (e cioè multimodalità in due dimensioni), eventualmente mantenendo fissi i rapporti tra le due grandezze. In Fig. 433 si può vedere uno scatterplot tra le lunghezze (in ordinate) e le larghezze (in ascisse) di una serie di punte a dorso molto comuni nel Paleolitico superiore europeo: le punte di La Gravette e le microgravettes, già descritte precedentemente per il giacimento italiano di Palidoro in riferimento al test del χ². Queste punte si riferiscono invece al giacimento del Gravettiano finale di Corbiac (in Dordogna), databile a circa 24.000-22.000 anni da oggi (Bordes 1967). Come si vede dalla figura, non solo le microgravettes e le punte di La Gravette giacciono in pratica sulla stessa linea trasversale (la retta di regressione non è rappresentata, ma il coefficiente di correlazione è alto, circa 0,7), ma si vedono nettamente due raggruppamenti (clusters) diversi: uno, abbastanza ristretto, che riguarda le microgravettes, e l’altro, più sparso, per le punte di La Gravette. La proiezione sui due assi mostra che la grandezza discriminante vera non è la lunghezza, ma la larghezza, il che potrebbe anche indicare un uso delle microgravettes come “armature”, cioè come elementi di costruzioni composte da più microliti di selce. Il secondo esempio è ancora più clamoroso e si riferisce ad un insieme di brocche proveniente da una chiesa dell’Alto Medioevo a Roma: S. Maria Antiqua. In Fig. 431 si vedono le forme delle brocche e le variabili usate: altezza della brocca e diametro della stessa. È impressionante come i tre tipi di brocche, peraltro molto simili tipologicamente, si raggruppino perfettamente in tre clusters molto distinti: non c’è neanche bisogno di effettuare un’analisi di regressione per rendersi conto che il coefficiente di correlazione deve essere molto vicino a 1 e, inoltre, i tre gruppi sono notevolmente separati, anche rispetto alle punte di La Gravette e alle microgravettes della Fig. 433, denotando così un alto grado di standardizzazione nelle ceramiche di uso comune nell’Alto Medioevo, quanto meno a Roma.

Statistica multivariata sensu stricto – Al di là di due dimensioni, i problemi diventano più complessi; in pratica si ha a che fare, come si è già detto, con spazi multidimensionali, caratterizzati da n oggetti, ognuno dei quali è descritto da k variabili: nel paragrafo precedente si è trattato il caso in cui le variabili sono solo 2 e cioè k = 2. Nei casi multidimensionali, i problemi, anche soltanto dal punto di vista descrittivo, sono di due tipi. Il primo riguarda una classificazione degli oggetti (insiemi litici, tombe di una necropoli, ecc.) prendendo come valide tutte le variabili che li descrivono: questo approccio è tradizionalmente chiamato di “tipo Q” e riguarda tutti i problemi di classificazione in gruppi, e cioè le varie tecniche di cluster analysis. Il secondo approccio, chiamato di “tipo R”, aiuta a capire se le variabili che descrivono gli oggetti siano tutte necessarie: potrebbe succedere che alcune variabili siano ridondanti perché, in pratica, sono correlate a priori. In questo caso si rende necessaria una riduzione del numero di variabili, così che il campione in studio sia efficacemente descritto solo da pochi nuovi parametri, che sono una combinazione di quelli vecchi. Le applicazioni più note sono quelle dell’analisi in componenti principali (principal component analysis) e dei suoi vari collegati, come l’analisi dei fattori (factor analysis). È stata poi introdotta, ad opera di C. Benzécri (1973), anche l’analisi delle corrispondenze, che si presenta come un metodo Q+R (in realtà si tratta solo di rappresentare sullo stesso grafico sia gli oggetti che le nuove variabili), basato su un uso estensivo delle tabelle di contingenza e dei totali marginali già descritti nella sezione precedente e che, comunque, ha l’indubbio vantaggio di trattare sullo stesso piano sia le variabili continue che quelle discrete (l’analisi in componenti principali tratta solo quelle continue).

Tecniche di cluster analysis e dendrogrammi – Il metodo della cluster analysis e della costruzione di dendrogrammi è stato forse introdotto per la prima volta da R.R. Sokal e P.H.A. Sneath (1963), per la classificazione di specie biologiche. Si tratta innanzitutto di costruire dei coefficienti di similarità tra gli oggetti da classificare, sulla base delle variabili che li descrivono, che possono essere sia continue che discrete. Ad esempio, nel caso della presenza o assenza di certi elementi del corredo funerario nelle tombe di una necropoli, indicando con N⁺⁺ e N⁻ ⁻ il numero di presenze e di assenze contemporanee, su un totale N, tra due tombe i e j, si può definire il coefficiente di Sokal e Michener come

SSM (i,j) = (N++ + N)/N,

che, ovviamente, varia tra 0 e 1. Non tenendo conto delle assenze contemporanee, un analogo coefficiente è quello di Jaccard. Se gli oggetti (le tombe in questo caso) sono n, il numero di coefficienti di similarità è n(n-1)/2. Vi sono moltissimi coefficienti di similarità e, per il caso di variabili continue xi, possiamo citare quello di distanza (la semplice estensione del teorema di Pitagora), che si può anche far variare tra 0 e 1 con una semplice normalizzazione delle variabili. Una volta ottenuti i coefficienti di similarità, si costruisce una matrice di questi coefficienti (Tab. 4, matrice A) e si cerca di riordinare le righe e le colonne della matrice, in modo da raggruppare gli oggetti che possiedono il coefficiente di similarità mutualmente esclusivo più alto. Nel nostro caso (n = 6), il risultato è fornito dalla matrice B della Tab. 4, e si possono subito riconoscere tre clusters principali: (2,5), (4,1) e, a un livello di similarità leggermente più basso, (6,3). Il prossimo problema è come “legare” questi tre gruppi, in modo da costruire una struttura ad albero. Vi sono diversi metodi: complete linkage, single linkage, ma il più comune è l’average linkage. Esso calcola i nuovi coefficienti di similarità tra i gruppi facendo le medie pesate di quelli vecchi (weighted pair group method): se i coefficienti di partenza sono compresi tra 0 e 1, come nel nostro caso, allora si fa la semplice media; la struttura ad albero finale è mostrata in Fig. 434. Per quanto riguarda una stima a priori qualitativa della deviazione standard da associare ai livelli di similarità dei clusters, dato che questi sono essenzialmente delle proporzioni di una distribuzione tipo Bernoulli (presenza/assenza), si usa la formula data dalla distribuzione binomiale, che serve solamente per stimare approssimativamente quando si deve “tagliare” per riconoscere dei clusters significativi. Le applicazioni pratiche dei dendrogrammi sono molto numerose (esistono programmi in qualunque package statistico moderno) e qui ne forniremo alcune. Il primo esempio si riferisce ad una cluster analysis effettuata sulle industrie di giacimenti mesolitici italiani (Bietti 1981) e il dendrogramma, ottenuto mediante un coefficiente di distanza percentuale, è rappresentato in Fig. 435 (a sinistra). I giacimenti sono 40, elencati nella figura, mentre le variabili (grattatoi, bulini, dorsi, geometrici, denticolati, ecc.) sono 23. Dato il lungo tempo trascorso (l’articolo è stato scritto per un convegno del 1978), alcuni dati sono cambiati: gli strati CIII-CI delle Arene Candide sono decisamente più vecchi (risalgono all’Allerød) e quindi si situano nell’Epigravettiano finale. Dal dendrogramma, comunque, non si vede una buona differenziazione geografica o cronologica, con l’eccezione di due strati di Romagnano e di Lama Lite, che appartengono ad una facies “castelnoviana”, e del Riparo Blanc nel Lazio, che si discosta ampiamente da tutti gli altri clusters per il semplice fatto che il suo strumentario è del tutto particolare (essenzialmente denticolati ed intaccature), legato ad una attività stagionale locale di molluschi di scoglio. Il secondo esempio riguarda invece un’analisi delle tombe a incinerazione laziali del X-IX sec. a.C. presenti in varie necropoli (Bietti Sestieri 1979), come Colli Albani, Anzio, Lavinio, Foro Romano e Osteria dell’Osa. Il dendrogramma di Fig. 435 (a destra), ottenuto con il coefficiente di Sokal e Michener, è basato su 43 tombe con 36 tipi di oggetti di corredo in totale: si tratta quindi di tombe particolarmente ricche, visto che ogni tomba contiene almeno 15 oggetti di corredo. Si notano diversi clusters significativi dal punto di vista cronologico, per ricchezza di corredo e, infine, per differenziazione di facies geografica. Il terzo esempio, derivato da un’analisi delle fibule del periodo La Tène di Münsingen in Svizzera (Doran – Hodson 1975), ha un carattere più tipologico, come “esercizio” di classificazione, ed è ottenuto tramite un’analisi di variabili continue. In Fig. 436 sono rappresentati la definizione delle 13 variabili considerate (a destra) e il dendrogramma (a sinistra) ottenuto con il solito coefficiente di distanza e l’average linkage. Le fibule sono 28, a cui sono aggiunte una fibula di un periodo più antico (Hallstatt n. 29) e una fibula inglese di Reading, non lontano da Londra (n. 7). Il dendrogramma mostra chiaramente che la fibula di Hallstatt è completamente fuori da ogni cluster significativo, e in parte lo è anche quella di Reading, che è però associata con alcuni elementi di Münsingen. Esistono molti altri metodi di cluster analysis: qui si vuole solo brevemente citare la cosiddetta k-means, che è molto usata per correlazioni spaziali intrasite. Si tratta in sostanza di cercare su una paleosuperficie di scavo dei raggruppamenti spaziali significativi di oggetti (ossa, strumenti di selce, ecc.). Il metodo della k-means cluster analysis è un metodo iterativo, che parte da cerchi su superfici relativamente grandi, per poi aumentare il numero di questi cerchi (e quindi ridurne il diametro) fino a che ogni iterazione successiva non porti più a un miglioramento del livello di “eterogeneità” tra i diversi clusters, e quindi all’identificazione di zone più specializzate. In Fig. 437 sono mostrate due soluzioni della k-means cluster analysis per il giacimento musteriano dello strato 8 di Grotta Vaufrey in Dordogna: a sinistra quella a 5 clusters e a destra quella a 11 clusters, che risulta poi essere quella ottimale.

Analisi delle componenti principali e analisi dei fattori – In questo caso, il problema è praticamente speculare a quello della cluster analysis: non si tratta qui di classificare gli oggetti con variabili “sicure”, ma di accertarsi, come si è già detto, che non vi siano troppe variabili ridondanti e quindi di trasformare le vecchie variabili in nuove variabili che non siano più correlate tra loro. Si parte da una classica matrice S varianza-covarianza tra le variabili xi (i = 1, …, k) e poi si deve “diagonalizzare” questa matrice, e cioè trasformare le variabili di partenza in nuove variabili yi in modo tale che la nuove matrice D non abbia più covarianze. Questa diagonalizzazione si effettua con una “rotazione” in uno spazio k-dimensionale, che porta quindi ad esprimere sia le nuove variabili in termini di quelle vecchie, che quelle vecchie in termini delle nuove, cioè

xi = Σk aik yk.

Gli aik si chiamano comunemente factor loadings e rappresentano i pesi relativi delle vecchie variabili sulle nuove. Per semplicità, riferiamoci al solito caso 2×2. Supponiamo che le due variabili x₁ e x₂ abbiano varianze 6 e 2 e covarianza 3. Il problema di trovare gli elementi della matrice diagonalizzata, che si chiamano autovalori, in questo caso si risolve esattamente: essi sono rispettivamente 7,6 e 0,4, e l’espressione precedente si scrive ora

x = 0,88y + 0,46y x₂ = 0,46y ‒ 0,88y.

La cosa più interessante è che la somma della varianza totale (gli elementi della diagonale principale) è sempre la stessa (come deve essere per ragioni di algebra matriciale), ma mentre nella matrice S la varianza della seconda variabile è un quarto della varianza totale, nella matrice D è solo il 5% di quella totale: si ha quindi una riduzione del numero di variabili abbastanza sostanziosa. Come primo esempio, ritorniamo alle fibule di Münsingen (oltre a quelle di Hallstatt e Reading) con i parametri definiti dalla Fig. 436. In Fig. 438 (a sinistra) vediamo lo scatterplot delle fibule secondo le prime due componenti principali (su 13, le prime 4 componenti principali esauriscono circa l’80% della varianza totale e le prime 6 circa il 92%). La fibula di Hallstatt sta sempre abbastanza fuori dal gruppo principale, così come quella di Reading, ma in maniera meno evidente rispetto al dendrogramma di Fig. 436 (cosa naturale, perché il dendrogramma considera tutte le variabili, mentre qui si tratta solo delle prime due componenti principali), ma in compenso sono ben evidenziate alcune fibule “irregolari”, come anche nel dendrogramma, e cioè i nn. 1, 21 e 30. Un altro esempio si riferisce invece ad un’analisi dei giacimenti epigravettiani italiani, da circa 20.000 a circa 10.000 anni da oggi (Bietti 1985), effettuata sulla base dei dati della tipologia delle industrie presentati al Colloquio Internazionale di Siena nel 1983 (Palma di Cesnola 1983). I siti (o strati dello stesso sito) considerati sono 124, mentre le variabili, sempre continue, sono percentuali di vari strumenti (bulini, grattatoi, strumenti a dorso, ecc.) o rapporti tra gruppi di strumenti, in tutto 17. L’ipotesi da verificare, fedelmente seguita da quasi tutti gli studiosi italiani (Palma di Cesnola 1983), era la consistenza di una suddivisione cronologica non “a priori”, ma derivata dalla tipologia, dove l’Epigravettiano antico, nelle due fasi “a foliati” e à cran, è distribuito in tutta la penisola, mentre quelli successivi, l’Epigravettiano evoluto e finale, mostrano differenziazioni regionali in almeno quattro zone: tirrenica nord-occidentale (fino alla Toscana), tirrenica centro-meridionale (dal Lazio alla Calabria), adriatica nord-orientale e centrale (dal Veneto fino all’Abruzzo), adriatica meridionale (Puglia). Nell’analisi delle componenti principali, le prime 6 coprono più del 92% della varianza totale. In Fig. 438 (a destra) vediamo lo scatterplot dei giacimenti lungo le prime due componenti principali (PRCO1, PRCO2). Come si vede, nessuna delle ipotesi è verificata: la regionalizzazione sembra del tutto assente (le classi C e F, ad es., che rappresentano rispettivamente la regione tirrenica nord-occidentale e la Puglia nell’Epigravettiano evoluto e finale, sono abbondantemente mescolate) e le due fasi dell’Epigravettiano antico, rappresentate dalle lettere A e B, si perdono totalmente nell’insieme delle varie facies regionali ipotizzate per l’Epigravettiano evoluto e finale. La conclusione (Bietti 1985) è che non solo i parametri tipologici scelti siano totalmente inadeguati per la risoluzione dei problemi posti, ma che i problemi stessi e la scelta dei giacimenti non abbiano senso, perché mettono sullo stesso piano siti (o strati dello stesso sito) che possono soffrire in modo serio di difficoltà di sampling bias: siti che rappresentano diverse attività specializzate, siti mal scavati o insufficientemente scavati, ecc. L’analisi dei fattori (factor analysis) differisce da quella delle componenti principali solo perché effettua una successiva rotazione degli assi, introdotta essenzialmente dagli psicologi, per rendere più “leggibili” i factor loadings (ad es., tutti di segno positivo). Il metodo più usato per la rotazione è il cosiddetto “varimax”. In Fig. 438 (al centro) si vedono i risultati dalla factor analysis con questo metodo nel caso delle solite fibule di Münsingen, però ora tra il primo ed il quarto asse fattoriale. I risultati sono abbastanza simili a quelli del primo scatterplot, con le fibule n. 1, 21 e 30 sempre in posizione periferica e quelle di Hallstatt e di Reading forse meglio separate. In chiusura possiamo citare solo rapidamente un fondamentale lavoro di L.R. e S.R. Binford (1966) su un’analisi dei fattori da una serie di industrie musteriane francesi e medio-orientali di facies Levallois, che mette in questione la tradizionale suddivisione tipologica in facies culturali proposta da F. Bordes (1953) e adottata (ancora in tempi recenti) come un “dogma” dagli studiosi tradizionali del Paleolitico. In pratica, in tale lavoro la factor analysis viene impiegata per dare agli assi fattoriali (5, a partire dalle 62 variabili della lista tipologica di F. Bordes) un significato funzionale: ad es., macellazione sul posto delle prede cacciate, attività di sussistenza (legno, pelli, ecc.). A parte le diverse critiche metodologiche che sono state avanzate sull’analisi e in seguito accolte anche dagli autori stessi, l’importanza dell’articolo sta, a mio giudizio, nel totale ribaltamento dell’ottica tradizionale con la quale, da diversi decenni, si guarda la realtà dei reperti archeologici.

Bibliografia

F. Bordes, Essai de classification des industries “Mousteriennes”, in BPrHistFr, 90 (1953), pp. 457-66; A.C. Spaulding, Statistical Techniques for the Discovery of Artifact Types, in AmAnt, 18 (1953), pp. 305-13; R.R. Sokal – P.H.A. Sneath, Principles of Numerical Taxonomy, San Francisco 1963; L.R. Binford – S.R. Binford, A Preliminary Analysis of Functional Variability in the Mousterian of Levallois Facies, in AmAnthr, 68 (1966), pp. 238-95; R. Peroni, Considerazioni ed ipotesi sul ripostiglio di Ardea, in BPI, 75 (1966), pp. 175-96; F. Bordes, Considérations sur la typologie et les techniques dans le Paléolithique, in Quartär, 18 (1967), pp. 25-55; F. Mezzena – A. Palma di Cesnola, L’Epigravettiano della Grotta Paglicci nel Gargano (scavi F. Zorzi 1961-1963), in RScPreist, 22 (1967), pp. 23-156; P. Gambassini, Risultati della campagna di scavi 1964 nel riparo C delle Cipolliane (Lecce), ibid., 26 (1970), pp. 127-181; R. Whallon, A New Approach to Pottery Typology, in AmAnt, 37 (1972), pp. 13-33; A.J. Ammerman – L.L. Cavalli-Sforza, A Population Model for the Diffusion of Early Farming in Europe, in C. Renfrew (ed.), The Explanation of Culture Change, Duckworth 1973, pp. 343-57; P. Benzécri, L’analyse des données, Paris 1973; M.R. Spigel, Statistica, 1973; A.M. Radmilli, Gli scavi nella grotta Polesini a Ponte Lucano di Tivoli e la più antica arte nel Lazio, Firenze 1974; R. Whallon, Spatial Analysis of Occupation Floors II: the Application of Nearest Neighbor Analysis, in AmAnt, 39 (1974), pp. 16-34; J.E. Doran – F.R. Hodson, Mathematics and Computers in Archaeology, Edinburgh 1975; A. Bietti, Analysis and Illustration of the Epigravettian Industry Collected during the 1955 Excavations at Palidoro (Rome, Italy), in Quaternaria, 19 (1976-77), pp. 197-387; M. Piperno – I. Biddittu, Studio tipologico ed interpretazione dell’industria acheuleana e premusteriana dei livelli m e d di Torre in Pietra (Roma), ibid., 20 (1978), pp. 441-536; A. Bietti, Le gisement paléolithique supérieur de Taurisano (Lecce) et sa position chronologique et culturelle dans l’Épigravettien italien, in La fin des temps glaciaires en Europe, Paris 1979, pp. 333-44; A.M. Bietti Sestieri, Ricerca su una comunità del Lazio protostorico. Il sepolcreto dell’Osteria dell’Osa sulla via Prenestina, Roma 1979; M. Taschini, L’industrie lithique de Grotta Guattari au Mont Circé (Latium): définition culturelle typologique et chronologique du Pontinien, in Quaternaria, 21 (1979), pp. 179- 247; A. Bietti, Analyse typologique et typométrique de quelques outils à cran de gisements épigravettiens du Sud-est d’Italie: Paglicci (Foggia) et Taurisano (Lecce). Considérations sur l’Épigravettien ancien d’Italie, ibid., 22 (1980), pp. 243-73; C. Orton, Mathematics in Archaeology, Cambridge 1980; A. Bietti, The Mesolithic Cultures in Italy: New Activities in Connection with Upper Palaeolithic Cultural Traditions, in VeröffMusPotsdam, 18-19 (1981), pp. 33-50; Id., Tecniche matematiche nell’analisi dei dati archeologici, Roma 1982; A. Palma di Cesnola, La position taxonomique et chronologique des industries à pointes à dos autour de la Méditerranée européenne, in RScPreist, 38 (1983); A. Bietti, Analyse des données de l’Epi-Gravettien en Italie. Considération générale sur la classification traditionelle de l’Epi-Gravettien en Italie Continentale, in M. Otte (ed.), La signification culturelle des industries lithiques, Oxford 1985, pp. 15-38; F. Djindjian, Méthodes pour l’archéologie, Paris 1991.

L’INFORMATICA IN ARCHEOLOGIA

di Paola Moscati

L’introduzione dei calcolatori in archeologia risale agli anni Sessanta e ha dato luogo alla definizione di due settori di ricerca distinti fra loro: il primo è caratterizzato dall’impiego delle tecniche offerte dall’informatica; il secondo si avvale dei calcolatori per l’applicazione dei metodi matematico-statistici. Diversi sono anche i procedimenti metodologici che caratterizzano queste due aree di ricerca. Lo sviluppo delle applicazioni informatiche in archeologia, relative in particolare alla costituzione e alla gestione di banche-dati, nonché all’utilizzazione delle moderne tecniche di trattamento dei dati grafici e delle immagini, appare strettamente connesso con il più vasto movimento che ne registra la diffusione sempre crescente in molteplici settori della società moderna. L’informatica offre all’archeologia la possibilità di rendere funzionali e sistematiche le operazioni di catalogazione e gestione delle informazioni, nonché di sperimentare nuovi strumenti di supporto sempre più sofisticati, idonei al trattamento tecnico-scientifico dei dati e alla loro successiva diffusione. Lo sviluppo delle tecniche matematico-statistiche si ricollega a un movimento culturale di vasta portata, inteso alla sperimentazione dei metodi propri delle scienze esatte nell’ambito delle discipline umanistiche; questo tipo di approccio si inserisce, a partire dagli anni Sessanta, in una branca della ricerca definita “archeologia quantitativa”. L’adozione in campo archeologico dei metodi matematico-statistici risulta uno dei punti programmatici del movimento culturale della New Archaeology, i cui fautori, e in particolare il promotore L.R. Binford, rivendicano l’autonomia di questa disciplina e, come si addice a ogni scienza esatta, considerano i calcolatori uno strumento ausiliario indispensabile per il trattamento automatico dei dati. Nel corso degli stessi anni, l’ampia diffusione dei calcolatori e la loro conseguente introduzione nelle università hanno creato il presupposto per lo sviluppo delle tecniche matematiche nell’ambito di diverse discipline e per l’apertura della statistica verso l’applicazione dei metodi multivariati. L’archeologia, già avviata negli anni Cinquanta alla sperimentazione di tecniche grafiche e di statistica descrittiva, adotta le nuove tecniche mediandole da altri settori della ricerca, quali le scienze naturali, la geografia e la psicologia, già indirizzati verso questo rinnovamento metodologico. Nell’evoluzione generale delle tendenze e dei settori di applicazione che ne è derivata si è verificata, almeno inizialmente, una distinzione fra le esperienze realizzate nei paesi anglosassoni e quelle proprie dei paesi latini europei. In America e in Inghilterra lo sviluppo del movimento della New Archaeology, e contemporaneamente l’importanza assegnata alla Social Archaeology, hanno portato all’approfondimento di ricerche rivolte all’analisi di problematiche antropologiche, alla ricostruzione di fenomeni di carattere socio-culturale, allo studio della distribuzione spaziale delle vestigia archeologiche, alla modellazione dei sistemi culturali e alla loro verifica attraverso la sperimentazione di tecniche di simulazione. Nei paesi latini europei, invece, la mancanza di un’analoga tradizione di studi antropologici non ha offerto un fecondo terreno di sviluppo per il movimento della New Archaeology. Così, il favore verso l’avvento dei calcolatori risulta circoscritto a figure di studiosi pressoché isolati, che si sono fatti carico del compito di teorizzare prima e di realizzare poi l’introduzione in ambito archeologico di questi nuovi metodi e, per quanto concerne l’approccio statistico, di approfondire l’applicazione delle tecniche multivariate per la soluzione di problematiche di tipologia e di caratterizzazione delle culture materiali relative in particolare all’epoca preistorica. Le possibilità applicative offerte dai calcolatori nell’ambito della ricerca archeologica risultano molteplici. Soprattutto alcuni settori hanno suscitato l’interesse da parte degli archeologi. Essi possono essere suddivisi per brevità in: tecniche di analisi matematico-statistica; banche-dati e Geographic Information Systems (GIS); trattamento dei dati grafici e delle immagini; sistemi esperti.

TECNICHE DI ANALISI MATEMATICO-STATISTICA

Le prime sperimentazioni dei metodi matematico-statistici in archeologia risalgono al dopoguerra, quando vennero utilizzate tecniche di statistica grafica e descrittiva per la realizzazione di liste tipologiche, relative pressoché esclusivamente a manufatti litici di epoca preistorica. Solo a partire dalla seconda metà degli anni Settanta si è trovato un solido punto di riferimento nelle tecniche di classificazione automatica (in particolare la cluster analysis), già affermate nelle ricerche relative alle scienze naturali e alla biologia. Una volta verificato il valido apporto dei metodi statistici di tipo multivariato, caratteristico degli anni Ottanta è stato il tentativo di associare diversi tipi di approcci metodologici, con l’intento di interpretare direttamente le realtà archeologiche attraverso un’analisi degli individui, effettuata in base agli attributi che sono responsabili della loro caratterizzazione. Tale tentativo ha trovato soprattutto in Francia, patria dell’Analyse des Données, un fecondo campo di sperimentazione, come dimostrano le ricerche condotte da F. Djindjian. L’applicazione dei metodi matematico-statistici richiede un tipo di approccio specifico, che rispecchia la necessità di passare da una fase puramente qualitativa e descrittiva della ricerca a una fase quantitativa, che prevede la classificazione sistematica degli aspetti più caratteristici del fenomeno archeologico preso in esame. Nell’applicazione di tali metodi, siano essi elementari o multivariati, è di notevole importanza la fase relativa alla scelta e alla rappresentazione, cioè alla codifica, delle informazioni. La necessità di quantificare i dati spiega almeno in parte perché questo tipo di approccio ha riscosso maggior successo negli studi preistorici, dove esiste ormai un’ampia scuola dedita a queste ricerche, piuttosto che in quelli classici, in cui, oltre ai dati morfologici e tecnici, sono presenti informazioni relative allo stile, all’iconografia e all’iconologia. I campi di indagine in cui sono stati maggiormente sperimentati i metodi statistici concernono problematiche di tipologia, di ordinamento cronologico, di distribuzione spaziale delle testimonianze, di analisi e ricostruzione dei sistemi socio-culturali. L’analisi tipometrica ha per scopo di creare, all’interno di un campione politetico di dati, una serie di raggruppamenti omogenei; di enucleare le variabili che più significativamente li contraddistinguono; di specificarne la stabilità. Essa è stata applicata soprattutto nello studio degli oggetti litici, metallici ovvero ceramici di epoca preistorica; nell’archeologia di epoca storica, l’analisi tipometrica ha incontrato un certo favore nella classificazione del materiale ceramico, che è risultato prestarsi, meglio di altre classi monumentali, a una codifica numerica delle diverse parti che costituiscono la struttura stessa dei vasi. La seriazione automatica dei dati intende ordinare, secondo una sequenza cronologica relativa, una serie di complessi archeologici privi di evidenze tali da offrire datazioni sicure. Il principio su cui si basa tale ordinamento è che l’attestazione di un determinato tipo di oggetti è riscontrabile solo in un arco di tempo ben definito, in cui se ne registra la comparsa, lo sviluppo quantitativo, l’apice della produzione, il calo e la definitiva scomparsa. Si tratta, quindi, di un modello di comportamento che viene rappresentato graficamente mediante una curva parabolica. Per quanto attiene all’archeologia spaziale l’esperienza anglosassone, che risale agli anni Settanta e che ha in I. Hodder e C. Orton i suoi maggiori artefici, risulta esemplificativa. L’approccio metodologico propugnato si basa sul principio che la distribuzione delle testimonianze non è mai casuale, ma segue determinate strutture logiche che possono essere poste in luce proprio attraverso l’utilizzazione delle tecniche statistiche. La ricerca si rivolge all’individuazione di una scelta programmatica nei criteri seguiti per l’occupazione degli spazi territoriali e urbani e alla verifica dell’incidenza di fattori esterni, geomorfologici o più specificamente economico-culturali, sulle strutture insediamentali. Fra le diverse applicazioni di questo settore d’indagine, l’analisi ricostruttiva dei sistemi socio-culturali dell’antichità appare senz’altro la più ambiziosa e avveniristica. L’utilizzazione di modelli matematici e di tecniche di simulazione è intesa alla fedele riproduzione dei processi che contribuiscono, nello spazio e nel tempo, alla formazione, allo sviluppo e in taluni casi alla successiva scomparsa di determinate società. La ricostruzione di tali processi investe problematiche insediamentali, di popolamento, di sussistenza, di scambio e diffusione commerciale, di organizzazione socio-politica e di caratterizzazione culturale. Più di recente, la necessità in ambito archeologico dell’integrazione e dell’interpretazione di dati diversificati ha aperto la via all’uso dell’approccio statistico di Bayes. Fondato sul principio che l’osservazione sperimentale di un evento modifica le ipotesi iniziali, esso permette il passaggio dalle probabilità a priori, che prescindono dal verificarsi o meno dell’evento, a quelle a posteriori o finali. In tal modo è possibile valutare, mediante un’osservazione sperimentale, la validità di più ipotesi alternative e di utilizzare ripetutamente gli stessi dati alla luce dell’acquisizione di nuove esperienze; ciò permette di includere nell’analisi le conoscenze preesistenti e soprattutto di formalizzare il procedimento di integrazione fra queste e i nuovi dati.

BANCHE-DATI E GEOGRAPHIC INFORMATION SYSTEMS

La costituzione e la successiva utilizzazione di archivi gestiti in modo automatico, intesi a riprodurre la tradizionale schedatura archeologica, hanno determinato, fin dagli anni Sessanta, un fervido dibattito sul tipo di linguaggio da utilizzare per la descrizione delle informazioni e per la loro successiva immissione nel calcolatore. Ne è conseguito un approfondimento delle problematiche connesse con la terminologia archeologica e soprattutto un tentativo di standardizzazione del linguaggio, che ha avuto come esito più evidente la creazione di “codici” per la descrizione di diverse categorie di materiali, o di thesauri e vocabolari “controllati” contenenti una classificazione di termini o, secondo l’accezione più corrente, di “parole- chiave”. Numerose ricerche pionieristiche in questo campo di studi sono state realizzate in Francia, in particolare sotto la guida di J.-C. Gardin e R. Ginouvès; in Italia, oltre alla monumentale opera svolta nel campo storico-artistico dalla Scuola Normale di Pisa, va ricordato il contributo dell’Istituto Centrale per il Catalogo e la Documentazione al fine della normalizzazione delle informazioni archeologiche. Per quanto attiene al settore della catalogazione e della tutela dei beni culturali, l’applicazione dell’informatica assume un carattere prettamente documentario e ha generalmente il suo punto di gravitazione in specifiche istituzioni pubbliche; basti ricordare l’attività svolta in Francia dall’Inventaire Général et Documentation du Patrimoine, in Inghilterra dall’English Heritage e dal National Monuments Record e in Italia ancora dall’Istituto Centrale per il Catalogo e la Documentazione. Poiché l’intento primario consiste nel censimento e nella catalogazione di oggetti mobili e immobili relativi a specifici contesti geografici o a contenitori museali, sotto l’ottica procedurale la standardizzazione del linguaggio e la strutturazione dei dati sono i temi affrontati con maggiore attenzione; sotto l’ottica informatica emergono le problematiche connesse con la costituzione di reti, con l’integrazione e con la standardizzazione degli strumenti tecnici. Negli ultimi anni, scopo delle applicazioni è risultato non più solo la costituzione di banche-dati alfanumeriche contenenti repertori schedografici, ma anche la loro integrazione con repertori di cartografia numerica e la realizzazione congiunta di videodischi e Cd-Rom. Accanto ai progetti di carattere nazionale, generalmente indicati con la sigla CRM (Cultural Resource Management), esiste una serie di iniziative volte all’automazione dei tradizionali corpora archeologici, attraverso la costituzione di banche-dati contenenti classi ben specifiche e omogenee di materiali; è questo il caso delle diverse banche-dati realizzate per la schedatura e l’archiviazione delle informazioni relative ad esempio ai vasi attici figurati e ai mosaici del mondo greco. In quest’ambito si possono inserire anche le esperienze relative alla gestione delle fonti documentarie; i due settori connessi con l’automazione delle informazioni numismatiche ed epigrafiche hanno fatto registrare ampi progressi nel corso degli ultimi decenni. A partire dagli anni Ottanta, le banche-dati sono state ampiamente utilizzate per la registrazione delle informazioni di natura geografica, topografica, stratigrafica, architettonica o materiale raccolte nell’ambito degli scavi. In alcuni casi il calcolatore è stato installato direttamente sul luogo dello scavo, e ciò ha permesso di ottenere al termine di ogni campagna non solo un inventario delle strutture e dei materiali rinvenuti, ma anche una prima analisi complessiva dei dati rilevati. Se si escludono alcune funzioni, la cui realizzazione rimane necessariamente manuale, l’automazione delle procedure di scavo investe, oltre alla fase di schedatura dei dati, l’acquisizione, l’elaborazione e la restituzione della documentazione grafica e fotografica; essa prevede inoltre l’archiviazione e il trattamento di dati eterogenei, frutto di una interdisciplinarità tendente alla compenetrazione tra informazioni provenienti da altre discipline, quali la geologia, la mineralogia, la biologia e la chimica. Nei progetti dedicati alla rilevazione e alla gestione delle informazioni relative al patrimonio archeologico, sia all’interno di centri a continuità di vita, sia più in generale nell’ambito del territorio, appare particolarmente sentita la necessità di introdurre informazioni di carattere spaziale, per la cui analisi complessiva viene ritenuto ormai inadeguato ogni approccio di tipo tradizionale. Si reputa oggi che la soluzione migliore sia costituita dall’integrazione fra banche-dati, in cui confluiscono le conoscenze relative alle evidenze archeologiche note, e Geographic Information Systems (GIS). Tali sistemi offrono gli strumenti logici per la creazione di un modello della realtà archeologica in cui sia possibile trattare informazioni di carattere, oltreché documentario, spaziale e tematico, seguendo una metodologia d’indagine intesa alla comprensione d’insieme dell’assetto territoriale sotto il profilo economico, culturale, sociale e topografico. Nati negli anni Ottanta, i GIS si sono sviluppati in ambito archeologico, soprattutto nel mondo anglosassone, negli anni Novanta, segnando una tappa fondamentale nell’evoluzione dell’informatica archeologica. Nel senso più stretto del termine, i GIS sono pacchetti applicativi che permettono di archiviare, porre in relazione e analizzare ampie quantità di dati di natura diversa e di raccogliere e trattare dati di carattere spaziale, georeferenziando le informazioni. Essi presentano, inoltre, più complesse funzioni di carattere analitico, che permettono, attraverso lo sviluppo del concetto di “relazione spaziale” e lo studio della distribuzione delle testimonianze, di realizzare analisi spaziali, di trattare in modo interattivo i dati georeferenziati e, quindi, di sviluppare nuovi stimolanti approcci allo studio del territorio e degli spazi urbani. L’elemento spaziale trova dunque la giusta rivalutazione soprattutto negli studi di carattere topografico e urbanistico, anche attraverso un approfondimento delle problematiche connesse con la cartografia archeologica di riferimento. In Italia fra i progetti pilota si devono citare quelli promossi già dalla metà degli anni Ottanta dall’Università di Roma “La Sapienza”, sotto la guida di P. Sommella, in particolare attraverso l’evoluzione del programma di ricerca sulla Carta Archeologica d’Italia (Forma Italiae) e la realizzazione della collana Città antiche in Italia; quest’ultima, in particolare, rispecchia la tendenza degli studi informatizzati condotti in Italia nel settore topografico e urbanistico, in cui prevale lo studio delle città antiche, sia abbandonate sia a continuità di vita, e del loro territorio circostante, attraverso una metodologia d’indagine basata sull’analisi e sull’interpretazione dell’evoluzione delle città dalle fasi preurbane alle trasformazioni postantiche.

TRATTAMENTO DEI DATI GRAFICI E DELLE IMMAGINI

A partire dagli anni Ottanta, sulla scia dei mezzi offerti da nuove risorse tecnologiche, come la fotografia aerea e da satellite, le immagini termografiche, le prospezioni magnetiche ed elettromagnetiche, si è andato sviluppando un nuovo settore dedicato all’applicazione dell’informatica alla grafica e al trattamento delle immagini. Esso ha portato all’approfondimento e al perfezionamento di specifici indirizzi di ricerca: la cartografia archeologica computerizzata; il trattamento informatico delle foto aeree e da satellite e il telerilevamento; i modelli digitali del terreno; le tecniche automatizzate di rilievo grafico e fotografico; la ricostruzione tridimensionale di siti e monumenti. Gli esiti raggiunti nell’ambito della grafica computerizzata sono in genere molteplici e particolarmente auspicati dagli archeologi, in quanto offrono loro l’opportunità di raggiungere rapidamente mete a lungo desiderate, come la documentazione grafica e fotografica automatizzata dello scavo o il disegno dei reperti. La maggior parte dei progetti finora realizzati concerne ricerche topografiche e urbanistiche, in cui l’automazione dei dati grafici e cartografici trova ragione d’essere nella compenetrazione fra l’analisi geografica e l’interpretazione storica del territorio. L’automazione dalle informazioni provenienti dai supporti grafici e fotografici, come ad esempio le foto aeree, costituisce una fonte di documentazione essenziale per le ricerche sul territorio, dalle ricognizioni agli scavi. Si sono così aperti nuovi orizzonti per quanto attiene sia alla cartografia archeologica, sia alla ricostruzione urbanistica e architettonica di centri o monumenti antichi, sia alla ricostruzione dell’assetto originario di monumenti e alla formulazione di proposte per un loro eventuale restauro. Denso di implicazioni di carattere teorico e di soluzioni innovative è il settore della cartografia archeologica numerica, in cui il fine perseguito è la redazione di una carta archeologica in cui vengano integrate realtà conoscitive diverse: cartografiche, topografiche, documentarie, letterarie. Il trattamento delle immagini, siano esse foto aeree ovvero Modelli Digitali del Terreno (DTM) o ancora esiti di specifiche analisi tecniche, appare connesso sostanzialmente con la cosiddetta geoarcheologia, e in particolare con la possibilità che essa offre di interpretare le anomalie riscontrate nello studio del terreno. Lo sviluppo sempre più incalzante del settore dell’informatica dedicato al trattamento automatizzato delle immagini è andato di pari passo con l’affermarsi dei sistemi informativi multimediali, i quali hanno aperto la via alla sperimentazione di nuove forme di integrazione e di gestione di informazioni di carattere diverso. La possibilità di integrare dati alfanumerici e immagini ha aumentato la sensibilizzazione da parte degli archeologi al problema dell’introduzione dei dati grafici e fotografici all’interno dei sistemi documentari e nell’ambito delle pubblicazioni. Sono state così realizzate banche-dati fattuali di tipo tradizionale in cui all’apparato alfanumerico, costituito dalle schede archeologiche o storico-artistiche, sono state aggiunte le immagini sia grafiche sia fotografiche; ovvero sono state elaborate banche-dati “referenziali”, destinate appositamente alla consultazione automatizzata di collezioni di immagini. Si è inoltre sviluppato un settore a sé stante, che è rivolto verso le problematiche di diffusione dei dati e che ha trovato ampio consenso soprattutto all’interno dei musei e nell’ambito di manifestazioni espositive. Per quanto attiene alla didattica, limitatamente alla sfera universitaria, vanno segnalate alcune esperienze, realizzate in ambito anglosassone, in cui la creazione di videodischi e CDRom ha avuto come finalità la possibilità di offrire agli studenti spunti per un più articolato sistema di apprendimento. A partire dalla metà degli anni Novanta si è inoltre assistito al crescente sviluppo della diffusione delle informazioni in rete. I siti archeologici in Internet sono divenuti molteplici e hanno assunto un ruolo importante quali strumenti di ricerca; essi possono essere raggruppati, per tipologia e comunanza di intenti, in key sites o resource sites, giornali elettronici, liste di discussione, musei, enti pubblici e di ricerca. Oltre alle singole pagine informative, di particolare interesse sono le realizzazioni finalizzate alla trasmissione e alla consultazione in rete di informazioni raccolte all’interno di banche-dati.

SISTEMI ESPERTI

L’introduzione delle tecniche relative all’intelligenza artificiale in archeologia appare piuttosto limitata e notevolmente tardiva. Lo sviluppo di questa branca innovativa dell’informatica risulta strettamente connesso con l’affinamento e la reale operatività dei sistemi esperti, cioè di quei sistemi informativi che costituiscono lo strumento e insieme il frutto concreto della ricerca informatica nel campo dell’intelligenza artificiale e che risultano profondamente diversi rispetto ai sistemi tradizionali. Infatti, essendo dotati di un potente meccanismo inferenziale, essi seguono determinate procedure, con l’intento di scandire e riprodurre gli elementi essenziali delle operazioni logiche contenute nei ragionamenti. L’intelligenza artificiale ha trovato un campo applicativo in ambito archeologico piuttosto originale: la simulazione del ragionamento interpretativo realizzato dall’archeologo e la conseguente ricostruzione e verifica dei diversi passaggi logici che lo hanno determinato. L’impostazione metodologica rispecchia il tipo di approccio propugnato, sotto il nome di analyse logiciste, da J.-C. Gardin. Si tratta di un approccio inteso alla formalizzazione del ragionamento archeologico, attraverso la sua trascrizione in forma analitica. Quest’ultima, oltre a rendere possibile l’automazione del ragionamento stesso, consente di raggiungere un maggior rigore sia rispetto alla flessibilità del discorso scientifico scritto, sia nella formulazione di ipotesi conclusive. Tale approccio metodologico, innovativo e al tempo stesso notevolmente discusso, può essere in ogni caso considerato come l’esito della maturità teorica raggiunta nell’utilizzazione dei calcolatori in ambito archeologico, in quanto rappresenta una tappa fondamentale nell’evoluzione del pensiero, che riconosce la necessità di formalizzare non più soltanto i dati da esaminare ma anche gli stessi ragionamenti e di affinare in tal senso le relative procedure metodologiche di analisi. Nel corso degli ultimi anni, in concomitanza con il progressivo sviluppo dei sistemi esperti, si è assistito a una crescente applicazione delle tecniche di simulazione. Fra le ricerche realizzate in questo settore vanno ricordate le indagini, promosse soprattutto da J. Doran, finalizzate all’analisi e alla simulazione dei processi relativi ai sistemi socio-culturali dell’antichità. Tecniche di simulazione sono state anche utilizzate nell’analisi dei materiali archeologici, con l’intento sia di ricostruire i processi di produzione e di diffusione di specifiche classi di materiali, sia di ricostruire la reale entità di un complesso di reperti ceramici, attraverso la simulazione dei processi distruttivi che hanno determinato la frattura di un oggetto integro durante l’uso, ovvero in fase deposizionale e postdeposizionale.

TENDENZE METODOLOGICHE E PROSPETTIVE FUTURE

Fra le tendenze attuali dell’informatica archeologica si nota una flessione nell’impiego delle tecniche di analisi matematico- statistica a favore dell’uso sempre più diffuso dell’archiviazione automatizzata dei dati, dei GIS, del trattamento dei dati grafici e delle immagini, della diffusione delle informazioni sulla rete Internet. I campi di applicazione delle tecniche di analisi statistica hanno trovato nel corso degli anni Novanta specifici indirizzi di ricerca, limitati in genere ai settori di più antica tradizione di studi: l’analisi della composizione chimica dei materiali archeologici e gli studi tipometrici e morfometrici, finalizzati alla classificazione degli oggetti. Un discorso a sé stante va riservato all’analisi spaziale, di recente rivalutata proprio in connessione allo sviluppo dell’applicazione in ambito archeologico dei GIS. Caratteristica degli anni più recenti risulta la tendenza ad assimilare indirizzi teorici e applicazioni pratiche; l’approccio statistico è stato quindi posto in stretta relazione con il dibattito teorico connesso con il metodo processuale e quello postprocessuale, o antiprocessuale, come è stato di recente definito da C. Renfrew. D’altronde, come si è detto, il maggiore impulso nell’uso delle tecniche statistiche in archeologia proviene proprio dai sostenitori della New Archaeology, per i quali l’approccio ipotetico-deduttivo, così come la quantificazione delle informazioni e l’hypothesis testing, assumono un ruolo fondamentale nei processi di analisi dei dati. L’importanza assegnata all’applicazione del metodo contestuale ha comportato uno spostamento di interessi verso soluzioni diverse da quelle strettamente quantitative e il favore si è rivolto verso il settore delle banche-dati, dei GIS e dei sistemi multimediali, dove risulta fondamentale il problema dell’integrazione fra archivi di dati di natura diversa e fra informazioni provenienti da fonti diversificate. Più ardua è invece apparsa l’applicazione del metodo contestuale in ambito statistico, dove in genere si tende piuttosto a un approccio di tipo riduzionistico. In questo quadro generale, è interessante richiamare l’orientamento, come sempre pionieristico, di J.-C. Gardin, che pone l’accento sulla necessità di superare i problemi di descrizione e di classificazione dei dati per approdare allo studio dei processi connessi con la loro interpretazione, attraverso una rivalutazione del discorso epistemologico, oscurato negli ultimi anni da un sopravvento dell’aspetto tecnologico della ricerca. Questa posizione si collega nuovamente con i più recenti sviluppi del pensiero teorico, che ha visto l’affermarsi della cosiddetta “archeologia cognitiva”. La rivalutazione dell’aspetto epistemologico implica al contempo la necessità da parte dell’archeologo di formalizzare i propri ragionamenti e di verificare l’esattezza della conoscenza del passato che egli stesso ricostruisce. Tale formalizzazione non concerne esclusivamente le informazioni di base da cui prende avvio ogni successiva analisi, ma abbraccia anche i ragionamenti: in tal modo ogni sforzo si sposta dai problemi di descrizione a quelli di interpretazione, sotto il segno di una epistemologia che tende al raggiungimento di regole generali. La fase di impostazione della ricerca, troppo spesso sottovalutata, risulta fondamentale; essa si concretizza nelle tappe di descrizione sintattica, di codifica, di strutturazione, nonché di stima delle informazioni da prendere in esame. In questa formalizzazione dei dati, così come nella necessità di costruire l’oggetto dell’analisi e di programmare la ricerca, sono da riconoscere gli elementi metodologicamente innovativi apportati dalle nuove tecnologie informatiche. L’integrazione di informazioni di natura diversa costituisce un punto nodale nell’archeologia attuale, sempre più caratterizzata dal concorso di discipline diverse, finalizzate a una ricostruzione completa dei fenomeni che hanno determinato la stratificazione delle testimonianze del passato. L’uso dell’informatica come parte integrante della ricerca deve essere quindi finalizzato alla realizzazione di un sistema integrato in cui vengano superate e fuse le singole specializzazioni e in cui venga privilegiata la relazione fra le diverse fasi della ricerca realmente e proficuamente informatizzabili: dalla prospezione allo scavo, alle indagini di laboratorio, alla ricerca documentaria, alla diffusione delle informazioni e all’amministrazione e tutela del patrimonio archeologico.

Bibliografia

S.R. Binford – L.R. Binford (edd.), New Perspectives in Archaeology, Chicago 1968; J.E. Doran – F.R. Hodson, Mathematics and Computers in Archaeology, Edinburgh 1975; I. Hodder – C. Orton, Spatial Analysis in Archaeology, Cambridge 1976; R. Ginouvès – A.-M. Guimier-Sorbets, La constitution des données en archéologie classique, Paris 1978; I. Hodder (ed.), Simulation Studies in Archaeology, Cambridge 1978; J.-C. Gardin, Une archéologie théorique, Paris 1979; C. Orton, Mathematics in Archaeology, Cambridge 1980; A. Bietti, Tecniche matematiche nell’analisi dei dati archeologici, Roma 1982; F. Djindjian – H. Ducasse (edd.), Data Processing and Mathematics Applied to Archaeology, in Pact, 16 (1987); J.-C. Gardin et al., Systèmes expertes et sciences humaines. Le cas de l’archéologie, Paris 1987; P. Moscati, Archeologia e Calcolatori, Firenze 1987; S. Papaldo – G. Zuretti Angle (edd.), Rapporto sull’attività di catalogazione in Italia. Anni 1970-1987, Roma 1988; K.M.S. Allen – S.W. Green – E.B.W. Zubrow (edd.), Interpreting Space: GIS and Archaeology, Bristol 1990; A.-M. Guimier-Sorbets, Les bases des données en archéologie. Conception et mise en oeuvre, Paris 1990; P. Moscati (ed.), Trattamento di dati negli studi archeologici e storici, Roma 1990; F. Djindjian, Méthodes pour l’archéologie, Paris 1991; J.-C. Gardin, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris 1991; C.U. Larsen (ed.), Sites and Monuments. National Archaeological Records, Copenhagen 1992; P. Reilly – S. Rahtz (edd.), Archaeology and the Information Age, London 1992; M.J. Baxter, Exploratory Multivariate Analysis in Archaeology, Edinburgh 1994; N. Gilbert – J. Doran (edd.), Simulating Societies, London 1994; G. Lock – Z. Stančič (edd.), Archaeology and Geographical Information Systems, London 1995; J.A. Barceló, Arqueología Automática. Una introducción a los usos de la Inteligencia Artificial en Arqueología, Sabadell 1996; C.E. Buck – W.G. Cavanagh – C.D. Litton, Bayesian Approach to Interpreting Archaeological Data, Chilchester 1996; T. Higgins – P. Main – J. Lang (edd.), Imaging the Past, London 1996; H.D.G. Maschner (ed.), New Methods, Old Problems. Geographic Information Systems in Modern Archaeological Research, Carbondale 1996; J. Baena Preysler – C. Blasco Bosqued – L. Ramos Gómez (edd.), Los S.I.G. y el análisis espacial en arqueología, Madrid 1997; F. D’Andria (ed.), Metodologie di catalogazione dei beni archeologici, Lecce – Bari 1997; A. Gottarelli (ed.), Sistemi Informativi e reti geografiche in archeologia: GIS-INTERNET, Firenze 1997; J. Johnson – M. North (edd.), Archaeological Applications of GIS (CD-Rom), Sydney 1997; P. Moscati (ed.), Methodological Trends and Future Perspectives in the Application of GIS in Archaeology, in ACalc, 9 (1998). Per una rassegna sulle applicazioni informatiche in archeologia cfr. gli Atti dei convegni annuali Computer Applications and Quantitative Methods in Archaeology, dei convegni promossi dall’associazione internazionale Archéologie et Informatique e delle riunioni della IV Commissione (Data Management, Mathematical Methods and Computing in Archaeology) dell’Union Internationale des Sciences Préhistoriques et Protohistoriques; per una bibl. specialistica cfr., a partire dal 1990, la rassegna curata da P. Moscati nella rivista ACalc. Come principale resource site in Internet cfr. ArchNet (http://archnet.uconn.edu), curato dall’Università del Connecticut, il cui equivalente europeo è costituito da ARGE (Archaeological Resource Guide for Europe: http://odur.let.rug.nl/arge); tra le riviste elettroniche cfr. in particolare Internet Archaeology (http://intarch.ac.uk/journal), realizzata per iniziativa del Council for British Archaeology, della British Academy e dell’Università di York.

L’ARCHEOLOGIA SPERIMENTALE

di Luca Bachechi

Questa denominazione è impiegata per indicare la metodologia, le prove, i processi seguiti per saggiare e per verificare ipotesi formulate su aspetti pratici delle società umane scomparse. In archeologia sperimentale vengono presi in considerazione gli aspetti relativi alla costruzione di abitazioni, di fortificazioni e di mezzi di trasporto, alla produzione, alla raccolta e alla conservazione del cibo, alla fabbricazione e all’utilizzazione di strumenti mobili, alla creazione di arti figurative e musicali. I più antichi esperimenti effettuati servendosi di materiale archeologico si svolsero in conseguenza delle scoperte, avvenute intorno al 1835 in Scandinavia e nelle isole britanniche, di alcuni straordinari strumenti musicali metallici dell’età del Bronzo. A parte pochi episodi però, i primi studi in campo sperimentale si concentrarono sui manufatti di pietra recuperati dai depositi geologici e, intorno al 1860, l’attività di sperimentazione si indirizzò prevalentemente verso la riproduzione e l’analisi funzionale di tali strumenti. Anche alcuni noti studiosi come J. Lubbock e J. Evans dimostrarono grande interesse per questo tipo d’indagine. Alla fine dell’Ottocento, A.H. Pitt-Rivers fu il primo ricercatore a utilizzare antichi attrezzi agricoli per dissodare il terreno e a registrare gli effetti dell’erosione e dell’interramento sui fossati che aveva aperto durante i suoi lavori di scavo. Sempre alla fine del XIX secolo, furono effettuati lavori di sperimentazione su oggetti metallici e vennero condotte indagini relative a opere di ricostruzione e verifiche di modelli di abitazioni. Dopo questi primi tentativi sono stati attuati innumerevoli esperimenti di carattere archeologico che hanno interessato gli ambiti più disparati, dal disboscamento di intere foreste alla manifattura di piccoli oggetti d’ornamento; tuttavia è solo dagli anni Sessanta che l’archeologia sperimentale si è particolarmente sviluppata, tanto da diventare una vera e propria “sottodisciplina” dell’archeologia stessa. Questo è stato possibile grazie soprattutto all’impulso dato da alcuni centri di ricerca specifici, i più noti dei quali sono il Centro Sperimentale Storico-Archeologico di Lejre in Danimarca (il più antico, nato nel 1968), l’Archéodrome di Meursault in Francia, i centri di Butset Farm in Inghilterra e di Eketorp in Svezia. La ricerca archeologica trova le sue basi essenzialmente nello studio e nell’interpretazione di un largo ventaglio di eventi umani che possono avere lasciato tracce tangibili durante il loro svolgersi (agricoltura, taglio delle foreste, architettura domestica in relazione all’economia, ecologia, procedimenti industriali in rapporto alle risorse naturali di un’area specifica, ecc.). L’archeologia sperimentale è dunque direttamente legata al processo di comprensione delle attività umane, in particolare al fine di confermare o meno l’interpretazione di tali attività, basate sulle scoperte effettuate durante i lavori di scavo. In effetti questa “sottodisciplina” è parte integrante di quasi tutti gli aspetti dell’archeologia, sia dei metodi di prospezione che di scavo, d’analisi e d’interpretazione: per questo motivo l’archeologia sperimentale ormai non deve essere più considerata una “sottodisciplina”, ma piuttosto un vero e proprio settore indipendente. La sperimentazione archeologica non è soltanto un insieme di tecniche specifiche adattate a problemi particolari, ma piuttosto l’interdipendenza di queste tecniche e la loro applicazione coordinata; così la fabbricazione di strumenti in selce, una volta applicata in maniera soddisfacente, diviene una semplice tecnica, ma l’analisi della dispersione delle schegge di lavorazione ottenute dalla fabbricazione costituisce un’applicazione che potrà fornire elementi di comparazione utili per l’archeologo. L’archeologia sperimentale costituisce un metodo per affinare e ridefinire l’interpretazione: se il ragionamento archeologico normale è quello di fornire una spiegazione a partire da dati reali ricavati da uno scavo, la sperimentazione consiste nel verificare tale interpretazione ed eventualmente cambiare o rifiutare l’ipotesi di partenza. Il risultato di tale procedimento deve essere necessariamente confrontato con quanto proviene dallo scavo: se i dati ricavati sono simili, l’ipotesi può essere considerata valida, altrimenti deve essere abbandonata o eventualmente modificata basandosi sul risultato ottenuto attraverso il primo esperimento. Il corollario di questo metodo è quello di permettere l’applicazione delle conclusioni ottenute a più evidenze ricavate da scavi dello stesso genere. Un importante settore dell’archeologia sperimentale è quello che può essere definito “simulazione”. Se la ricostruzione delle strutture, dei processi o delle funzioni è solitamente associata a un complesso specifico di dati che la sperimentazione deve studiare, è possibile esaminare il divenire delle ricostruzioni appositamente realizzate. Il deterioramento di un’abitazione, ad esempio, avrà conseguenze sul suolo per quanto riguarda l’accrescimento della reazione magnetica degli ossidi contenuti nel suolo stesso. L’osservazione di questo deterioramento permetterà di avere un esempio della longevità potenziale di una struttura. Questa simulazione, o ricostruzione, costituisce anche un’estensione logica della sperimentazione che può essere illustrata da due esempi: il terrazzamento sperimentale e il controllo della localizzazione degli oggetti nelle zone interessate da lavori di aratura, che permettono entrambi, per mezzo della comparazione, di chiarire alcuni problemi d’interpretazione che si pongono all’archeologo. Nel primo caso si tratta di controllare l’evoluzione, l’erosione e la rivegetazione del talus secondo alcune variabili di costruzione legate ai cambiamenti climatici registrati. La registrazione regolare di misure e di campioni fornisce dati e permette di stabilire paralleli. All’origine, la ricostituzione del terrazzamento prende la forma di un imponente vallo lineare con fosse e palizzate, come quelle che esistono intorno ad alcuni siti protostorici; a lungo termine il controllo avviene sullo studio del deterioramento secondo i diversi tipi di terreno e di condizioni climatiche. Il secondo caso si riferisce all’interrogativo relativo alla natura delle superfici arate: sono esse da considerare come zone archeologiche rappresentative, o piuttosto come aree prevalentemente perturbate? E in questa seconda ipotesi, è possibile stabilire una relazione tra il materiale raccolto nei livelli superiori, rimossi, e quello proveniente dagli strati più profondi? Se questo fosse possibile, anche alle zone interessate da aratura andrebbe attribuita una considerevole importanza: la sperimentazione, una volta sostenuta da dati quantitativamente sufficienti, può risultare utile anche in questo caso. Un aiuto fondamentale all’archeologia sperimentale proviene dall’utilizzazione dei moderni mezzi informatici in grado di gestire grandi quantità di dati. Oggi si può anche ricostruire artificialmente un sito se lo scavo ha fornito dati a sufficienza e, registrando la totalità dei dati percettibili nelle tre dimensioni, l’aspetto distruttivo dell’archeologia verrà attenuato e diventerà possibile in ogni momento proporre nuove interpretazioni. Tutte le sperimentazioni archeologiche hanno seguito e seguono un processo che prevede una sequenza costituita da problema → idea → procedimento → risultato →valutazione; all’interno di questa sequenza è necessario stabilire regole procedurali di base applicabili alla globalità degli esperimenti, affinché si possa almeno prendere in considerazione, se non adottare universalmente, un metro generale di verosimiglianza. Le principali fra queste regole, anche se esse non sono mai state codificate come tali, sono state riassunte da J. Coles (1981) come segue.

1) I materiali utilizzati dovrebbero essere quelli che si pensa siano stati in quel luogo a disposizione della società antica che ha prodotto il problema da analizzare.

2) I metodi usati nell’esperimento per riprodurre materiali antichi non dovrebbero andare al di là di quelli che si presume fossero nell’ambito delle competenze della società antica. Questo presuppone una conoscenza precisa della tecnologia antica e dell’ambiente, in modo da dedurre e accettare i limiti dell’esperienza stessa. Bisogna però considerare anche il rovescio della medaglia, poiché talvolta, in assenza di un adeguato esame della tecnologia antica, il lavoro di sperimentazione viene condotto con strumenti primitivi manipolati in modo inesperto e perciò inefficiente, riducendo così il valore del lavoro sperimentale in quantità pari alla riduzione che deriva dall’uso di un’attrezzatura moderna. Lavorare la terra con picconi di corno e abbattere gli alberi con asce di pietra sono tipi di lavoro entrambi insoliti per l’uomo moderno; da qui la necessità di una certa pratica prima di ottenere prove soddisfacenti.

3) La moderna tecnologia non dovrebbe interferire con i risultati sperimentali, ma non dovrebbe trascurare di migliorare la nostra conoscenza dei materiali e dei metodi usati per trasformarli. In termini di risultati, l’uso di una macchina per rimuovere la terra, per costruire argini e per scavare fossati può influire sugli esiti negativamente, rendendo compatto il terreno e danneggiando i lati del fossato, cose entrambe avvenute più di una volta; così come un trattore che traina copie di aratri antichi non può in alcun modo sostituire un paio di buoi ammaestrati. Nondimeno, la tecnologia moderna permette di analizzare materiali, come il rame, prima, durante e dopo il lavoro sperimentale e può accrescere notevolmente le nostre conoscenze.

4) La finalità dell’esperimento andrebbe decisa prima di iniziare il lavoro. Per strutture di grandi dimensioni si possono adottare modelli su scala ridotta, ma in tal caso i procedimenti devono essere controllati con estrema attenzione e tutti gli elementi ridotti in maniera uniforme. Più importante è il problema dei tempi della sperimentazione; alcuni, come ad esempio quello della velocità di erosione e di deterioramento, non possono essere in alcun modo accelerati. Altre prove, come le operazioni di costruzione, possono essere completate rapidamente con le attrezzature moderne, ma in tali circostanze gli esperimenti vengono a soffrire della mancanza di valutazione del tempo, di una riscontrabile usura degli attrezzi e forse di affidabilità nello stesso prodotto finito. La decisione dipende dallo scopo del progetto: se si richiede una semplice copia, ad esempio di un carro celtico, le tecniche moderne forniranno la copia in modo relativamente facile. Se si vuole conoscere la quantità di tempo impiegato per la costruzione di una casa di legno, andrebbero usate solo tecnologie proprie del periodo in questione. Se si deve misurare la velocità di erosione di una fortificazione, bisognerebbe allora costruirla senza far ricorso a interventi che potrebbero falsare sia l’uniformità sia lo stile della costruzione. Se si deve provare uno strumento, ad esempio un aratro di legno, occorre costruirlo in modo corretto, secondo la venatura e lo stato del legno, e deve essere collaudato proprio in quelle condizioni assunte come ragionevolmente vicine alle originali.

5) Gli esperimenti andrebbero eseguiti ove possibile ripetutamente, ciascuno basato sui risultati di quello precedente. Inoltre, è impossibile trarre partito da una circostanza fortunata, a meno che la mente non sia stata preparata da una lunga serie successiva di riflessioni e di esperimenti.

6) Il lavoro sperimentale verrà intrapreso avendo in mente un risultato da raggiungere, ma si dovrebbero sempre nutrire seri dubbi sul funzionamento del metodo adottato, mentre si dovrebbe costantemente prendere in considerazione l’ipotesi di ricorrere all’improvvisazione. Sarebbe opportuno utilizzare una varietà di metodi, se possibile, per garantire una gamma di diverse soluzioni e impedire la cieca accettazione del risultato definitivo. Per indurire scudi di cuoio furono utilizzati numerosi metodi e si sono potuti così paragonare e valutare i vari risultati. In un contesto diverso, l’uso disciplinato della fantasia è la funzione più alta dell’archeologo.

7) I risultati dell’esperimento consisteranno in una serie di osservazioni capaci di portare l’archeologo a conclusioni implicite o palesi: non si devono mai presumere o affermare certezze assolute. Anche se è possibile far navigare una barca di tipo antico attraverso l’Atlantico, il fatto che questo avvenisse veramente nei tempi remoti è lungi dall’essere provato. Evidenza e conferma sono sempre necessarie per poter confidare nei risultati sperimentali. Nel caso di costole di cervo intagliate se ne è potuta dimostrare, ma non provare, l’utilità nel preparare fibre di piante destinate alla fabbricazione di funi; ma il successivo ritrovamento di un antico osso seghettato, con un impasto di polpa vegetale incastrato tra i dentelli, ha reso più verosimile l’ipotesi che questo tipo di utensile fosse, un tempo, usato per quello scopo. Un terreno di confronto utile, quando sia impiegato con attenzione, è costituito dall’etnografia. Sia gli archeologi sperimentali, sia gli etnografi, forniranno varie possibili soluzioni a problemi specifici; nessuno determinerà una soluzione particolare, ma entrambi segnaleranno all’attenzione dell’archeologo vari gradi di probabilità. Il confronto tra le fornaci per fondere il ferro nell’Africa nord-orientale e in Scandinavia, morfologicamente simili d’aspetto, fa supporre che i procedimenti osservati per le prime possano essere stati usati anche per le ultime.

8) Infine, l’esperimento andrà valutato in ragione dell’attendibilità; questa si dimostra nel porre le domande giuste al materiale, nel concepire un’idea in modo appropriato e nell’applicare obiettivamente il metodo adottato, nell’osservare e valutare imparzialmente i risultati. Errori nell’esperimento, nella scelta dei materiali, nei metodi, nelle osservazioni andranno apertamente denunciati. Nella lavorazione di lamine di metallo, ad esempio, l’uso del rame invece del bronzo può influenzare un risultato. E nell’analisi finale non si deve dare per scontata l’attendibilità delle conclusioni dedotte dall’esperimento. È possibile produrre quindici note musicali, o suoni diversi, con un corno preistorico, ma non è possibile, né con metodi sperimentali né con altri procedimenti archeologici, dedurne che il paesaggio della Danimarca nell’800 a.C. circa risuonasse delle molteplici note di questi splendidi strumenti. Attualmente l’archeologia sperimentale interessa due ambiti principali. Nel primo si prendono in considerazione la produzione e il collaudo di manufatti mobili dei quali si effettuano le repliche dei singoli pezzi con tecniche compatibili con le conoscenze dell’epoca desiderata. Si cerca così di individuare le limitazioni tecniche a cui erano soggetti gli artigiani preistorici e le differenti fasi operative che permettevano di risolverle. Le repliche costituiscono una testimonianza delle scelte tecniche che si offrivano agli artigiani; il valore di questa testimonianza è legato soprattutto al rigore dei procedimenti utilizzati e all’analogia tra reperti archeologici e repliche. Questo ambito concerne l’artigianato in pietra, in osso, in legno, in pelle, in metallo e in ceramica, come anche le arti figurative e la musica. Nel secondo ambito la sperimentazione tenta ricostruzioni più ambiziose, ma anche più aleatorie: partendo da elementi conosciuti, tenta di risalire a quelli scomparsi. È questo il caso di operazioni di ricostruzione di abitazioni e di fortificazioni, dello studio dell’usura e della distruzione di entrambe; rientrano in questo ambito anche il trasporto e l’innalzamento di megaliti, come pure gli esperimenti di viaggi su lunghe distanze per mezzo di barche e tutte le attività connesse alla produzione del cibo, quali il disboscamento, l’aratura, la semina, la raccolta, l’accumulo delle messi, la preparazione e la consumazione degli alimenti. Sono comprese in questo settore anche le esperienze dedicate alla ricostruzione dei processi di formazione e di distruzione degli stessi giacimenti archeologici. All’interno del primo ambito di ricerca, la lavorazione della pietra, sia scheggiata che levigata, è stata certamente oggetto di analisi più accurata rispetto a qualsiasi altro settore dell’archeologia sperimentale. In passato solo pochissimi sperimentatori avevano raggiunto alti livelli di abilità tecnica, dopo molti anni di paziente applicazione pratica. Oggi esiste un discreto numero di archeologi che è in grado di riprodurre con perizia la maggior parte degli strumenti litici, apportando informazioni relative alla tecnica di lavorazione. Un aspetto strettamente connesso alla lavorazione della pietra, che ha assunto sempre maggiore importanza negli ultimi anni, è quello legato allo studio delle possibilità funzionali dei manufatti. Lo studio funzionale di tutti i manufatti archeologici passa attraverso la fabbricazione e l’utilizzazione di copie somiglianti il più possibile agli oggetti originali. È necessario riprodurre fedelmente ogni aspetto dei manufatti, sia quelli conosciuti che quelli dedotti e supposti, affinché la copia sperimentale possa permettere di individuare le tracce caratteristiche delle diverse tecniche di lavorazione dell’utensile stesso; inoltre è necessaria la comparazione delle tracce che risultano dall’uso del manufatto sperimentale e quelle presenti sullo strumento originale. In questo modo il risultato della sperimentazione sarà doppio, poiché grazie a quella si possono contemporaneamente studiare le tracce degli strumenti e le ipotesi relative alla loro utilizzazione. Nel settore della manifattura ceramica gli esperimenti hanno interessato un campo assai vasto, ma sono state esaminate in modo ampio solo alcune delle molteplici classi ceramiche esistenti e sono state condotte sperimentazioni principalmente solo su alcune caratteristiche dei vasi quali, ad esempio, la presenza dei diversi tipi di minerale contenuti nell’argilla, i metodi di preparazione, le condizioni e i mezzi per la cottura (forni), le attrezzature per la decorazione. Le caratteristiche tecniche dei forni (dimensioni e temperature ottenute) sono state prese in esame anche in relazione alla produzione di manufatti metallici, un campo d’indagine che si è interessato principalmente dello stampo e della forgiatura dei manufatti stessi, ma anche delle modalità di raccolta e del trattamento per fusione dei vari tipi di minerale. Estremamente diffusi nell’antichità, anche i manufatti in osso, in corno e in avorio sono stati oggetto di numerose applicazioni sperimentali indirizzate soprattutto allo studio della lavorazione, della frantumazione e della rottura per l’estrazione del midollo; come accade per i manufatti litici, molta importanza è stata attribuita all’individuazione dell’uso al quale lo strumento era destinato. In questo campo uno dei maggiori contributi apportati dall’archeologia sperimentale riguarda le indicazioni relative alla possibile distinzione tra materiali lavorati intenzionalmente dall’uomo e quelli modificati accidentalmente da agenti naturali. La rarità di reperti lignei ha condizionato l’attività sperimentale a loro riferita: perlopiù sono stati riprodotti e indagati prodotti finiti, in particolare armi (archi e frecce), delle quali, attraverso studi di fisica e di balistica, sono state studiate le potenzialità venatorie e belliche. Come per il legno, data la deperibilità dei materiali, dell’uso di cuoio, di pelli e di tessuti durante la preistoria sono rimaste pochissime tracce. In questo campo sono state condotte sperimentazioni nell’ambito dell’acquisizione delle pelli, della loro conciatura e della loro essiccatura, ma anche sulle tecniche di costruzione e sull’efficienza dei telai. Un aspetto particolare è quello connesso all’individuazione dei procedimenti di colorazione dei tessuti, un aspetto che rimane poco studiato poiché richiede lunghi e costosi processi che prevedono la ricostruzione del supporto, la conoscenza dei mordenti, il riconoscimento delle piante disponibili in base al clima e al luogo geografico, l’identificazione dei diluenti, la conoscenza delle condizioni di alterazione climatiche. Pochissimi tentativi sperimentali sono stati condotti al fine di studiare le modalità di esecuzione delle manifestazioni artistiche preistoriche, principalmente per le difficoltà di riprodurre le condizioni nelle quali furono eseguite le opere, conservate soprattutto in grotte e cavità naturali. Sono state eseguite copie in laboratorio, eliminando però in tale maniera alcuni fondamentali aspetti che devono avere condizionato l’esecuzione originale, come, ad esempio, l’illuminazione e il disagio di dover lavorare in spazi angusti e difficilmente raggiungibili. Rimanendo in campo artistico, anche la sperimentazione musicale annovera rari tentativi di studio, poiché per la preistoria disponiamo soltanto delle testimonianze costituite dai soli strumenti musicali; inoltre, se da questi possiamo produrre suoni, non possiamo tuttavia sapere se essi siano effettivamente quelli ascoltati dall’uomo preistorico, quale fosse il loro ordine, il loro intento e in quali occasioni venissero eseguiti. Relativamente alle ricostruzioni di strutture fisse o di tecniche per la produzione del cibo, l’attenzione degli archeologi sperimentali soltanto da pochi decenni si è rivolta verso i metodi per ripararsi all’interno di case e dietro fortificazioni di terra o di pietra. La difficoltà di queste ricostruzioni è costituita principalmente dal fatto che raramente è possibile farsi un’idea della morfologia del tetto a partire dalla pianta: la ricostruzione diventa pertanto sempre più ipotetica quanto più si alza al di sopra del suolo. Il modo di costruzione delle pareti può talvolta essere dedotto dai frammenti residuali di pareti e intonaco, ma se l’argilla non si è conservata o non viene riconosciuta durante lo scavo, allora si ripiegherà su pareti di zolle, di legno, o di canne. Le zolle o la paglia per la copertura del tetto sono difficili da distinguere anche attraverso i frammenti che sopravvivono. Inoltre la capanna di legno, per lo scarso lavoro richiesto dalle fondazioni, non lascia sul terreno praticamente nessuna traccia, con l’eccezione, a volte, delle tracce di corti picchetti che dovevano servire per impedire lo scivolamento del legname. Quello delle ricostruzioni è solo un aspetto del modo in cui l’archeologia sperimentale può contribuire alla conoscenza delle abitazioni preistoriche. La riproduzione di strutture abitative può essere seguita da un loro uso programmato e/o dalla loro distruzione. La sequenza costituita da piano di scavo, ricostruzione, distruzione, piano di scavo, fornisce un modello interessante, anche se la sua validità può essere messa in discussione visto che certamente le abitudini, le usanze e i mezzi a disposizione dei moderni sperimentatori sono diversi da quelli delle popolazioni preistoriche e che non sempre questi elementi possono essere valutati in maniera adeguata. Un campo d’indagine sperimentale che ha prodotto buoni risultati è quello relativo allo studio delle fortificazioni. Il maggior numero dei lavori è stato fatto sull’erosione dei fossati, che in generale costituiscono l’elemento primario delle fortificazioni. Le applicazioni sperimentali hanno dimostrato principalmente la necessità di tempi di lavoro abbastanza lunghi per lo scavo e il trasporto del materiale. Un’osservazione negativa avanzata riguardo agli esperimenti sulle fortificazioni sostiene che lo studio dell’erosione e del deterioramento di terrapieni e di trincee ha solo una limitata importanza in campo archeologico, poiché viene a mancare l’alterazione operata dagli agenti naturali nel corso dei millenni. Altre sperimentazioni si sono rivolte alla ricostruzione di grandi monumenti di pietra, dimostrando, tra l’altro, che per la preparazione, il trasporto e l’erezione di enormi monoliti risultano necessarie solo strumentazioni e tecniche assai semplici. Molto noti sono gli esperimenti relativi agli spostamenti via acqua effettuati mediante imbarcazioni: la limitata riuscita dei viaggi sperimentali e delle prove fatte dimostra comunque quali fossero le risorse, l’ingegnosità e la determinazione degli uomini antichi nel sopravvivere alle traversate marine. I problemi costituiti dai viaggi a lunga o a breve distanza, non solo per mare, ma anche per terra, sono in ogni caso di grande interesse perché collegati con i fenomeni della mobilità delle popolazioni, del commercio e delle comunicazioni. Riguardo alla produzione del cibo, gli esperimenti nel campo del disboscamento sono andati da semplici studi funzionali, dedicati ad esempio alla verifica dell’efficienza delle asce di pietra, a sequenze di lavoro relative non solo al disboscamento, ma anche alla conseguente coltivazione. Alcuni di questi esperimenti sono collegati a ricerche sul polline e ad altri argomenti di carattere botanico, tendenti a registrare i processi di mutamento di vegetazione in aree sottoposte a variazione ambientale. Nel campo dell’agricoltura, la sperimentazione su piccole superfici caratteristiche può tentare di verificare il successo e la produttività delle tecniche attestate dalle testimonianze in funzione delle variabili geografiche e geologiche selezionate. I risultati possono permettere in seguito tentativi di ricostruzione, ma la possibilità di riprodurre lo svolgimento delle attività agricole in epoca antica è ostacolata dall’estrema rarità di utensili originali e dalla scarsità di tracce del loro uso su terreni a lungo alterati dall’azione delle comunità umane successive. Qualche elemento interessante è stato comunque ricostruito: nel campo delle tecniche di mietitura, ad esempio, è stata accertata la maggiore efficienza degli strumenti in selce rispetto a quelli metallici. Anche la preparazione del cibo, la macinatura dei cereali, la cottura della carne, sono state oggetto di molte ricerche sperimentali, rivolte ad esempio alla determinazione dei cereali rinvenuti negli scavi e deformati dagli effetti della cottura. Buona parte di questo tipo di sperimentazione è stata dedicata alle tecniche di macinatura, utilizzando copie di macine e di macinelli di varie forme: sono stati effettuati confronti sull’efficienza di diverse morfologie di macine e anche sui tipi di grano utilizzati. Sono stati altresì condotti molti esperimenti relativi alla cottura degli alimenti, mentre ben poco si conosce circa le abitudini alimentari delle popolazioni preistoriche, anche se, in base a ritrovamenti di cibo conservato nello stomaco di individui mummificati risalenti all’età del Ferro rinvenuti nelle torbiere dell’Europa settentrionale, sono state elaborate zuppe, studiandone la composizione e i valori nutritivi. La validità degli esperimenti pertinenti ai vari ambiti sopra citati deve essere senz’altro riconosciuta da tutti coloro che sono interessati ai fondamenti della preistoria e alle tracce superstiti della vita materiale dell’uomo nell’antichità. Ogni tipo di reperto può essere studiato sperimentalmente, costruendo modelli per esami e valutazioni, e quasi tutte le esperienze possono contribuire alla comprensione dei fatti del passato, anche se in nessun caso si può pretendere di avere certezze assolute. La realizzazione di tecniche compatibili con la tecnologia antica, infatti, non costituisce in sé una dimostrazione indiscutibile che i fenomeni archeologici siano derivati da processi assolutamente identici a quelli impiegati nelle sperimentazioni; a tal fine bisognerebbe anche riuscire a dimostrare che nessun altro procedimento e nessun’altra tecnica potrebbero produrre gli stessi risultati. Per questo motivo, l’archeologia sperimentale deve essere considerata fondamentalmente come generatrice di ipotesi, piuttosto che un mezzo di dimostrazione; essa fornisce uno strumento attraverso il quale è possibile valutare nel loro sviluppo e significato alcune delle attività economiche fondamentali dell’uomo antico, in primo luogo quelle che riguardano la sussistenza e la tecnologia. L’archeologia sperimentale contribuisce inoltre ad arricchire ogni indagine sul passato, fornendo consuetudine con ogni tipo di cultura materiale e mettendo in luce una gamma di possibili soluzioni a problemi di interpretazione archeologica. In realtà ogni nuova applicazione è per definizione una sperimentazione e senza esperimenti le conoscenze archeologiche non potranno che procedere molto lentamente e quasi esclusivamente grazie a intuizioni personali e a scoperte casuali.

Bibliografia

Revivre la Préhistoire, in DossAParis, 46 (1980)

; J. Coles, Archeologia sperimentale, Milano 1981;

Archéologie expérimentale-Expérimentation et analyses en céramologie préhistorique, Meursault 1986;

L’Archéodrome et l’expérimentation en archéologie, in DossAParis, 126 (1988);

Archéologie expérimentale, 1. Le feu; 2. La terre. Actes du Colloque International, Expérimentation en archéologie: bilan et perspectives (Beaume, 6-9 avril 1988), Paris 1991.

https://www.treccani.it/enciclopedia/ricerca-archeologica-le-analisi-matematico-statistiche-e-l-archeologia-sperimentale_%28Il-Mondo-dell%27Archeologia%29/



Categorie:O04- Laboratorio di Archeologia digitale

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

NUOVA STORIA VISUALE - NEW VISUAL HISTORY

CULTURE VISIVE, SIMBOLICHE E MATERIALI - VISUAL, SYMBOLIC AND MATERIAL CULTURES

LINGUE STORIA CIVILTA' / LANGUAGES HISTORY CIVILIZATION

LINGUISTICA STORICA E COMPARATA / HISTORICAL AND COMPARATIVE LINGUISTICS

TEATRO (E NON SOLO) - THEATRE (AND NOT ONLY)

Testi, soggetti e ricerche di Antonio De Lisa - Texts, Subjects and Researches by Antonio De Lisa

TIAMAT

ARTE ARCHEOLOGIA ANTROPOLOGIA // ART ARCHAEOLOGY ANTHROPOLOGY

ORIENTALIA

ARTE E ARCHEOLOGIA / ART AND ARCHEOLOGY

ESTETICA ORGANICA- PER UNA TEORIA DELLE ARTI

ORGANIC AESTHETICS - FOR A THEORY OF THE ARTS

LOST ORPHEUS ENSEMBLE

Da Sonus a Lost Orpheus: Storia, Musiche, Concerti - History, Music, Concerts

Il Nautilus

Viaggio nella blogosfera della V As del Galilei di Potenza

SONUS LIVE

Sonus Online Music Journal

WordPress.com News

The latest news on WordPress.com and the WordPress community.

ANTONIO DE LISA OFFICIAL SITE

Arte Teatro Musica Poesia - Art Theatre Music Poetry - Art Théâtre Musique Poésie

IN POESIA - IN POETRY - EN POESIE

IN POETRY - PHENOMENOLOGY OF LITERATURE

%d blogger hanno fatto clic su Mi Piace per questo: