Analyse qualitative et nouvelles technologies de la communication
Massimiliano Di Massa (sous la direction de)
M@gm@ vol.1 n.3 Juillet-Septembre 2003
PER UNA METODOLOGIA DELLA RICERCA ON LINE: ALCUNE RIFLESSIONI E PROPOSTE
Marco Razzi
marco.razzi@fastwebnet.it
Professore
a contratto di Teoria dell'Informazione presso la facoltà
di Scienze della Formazione dell'Università di Genova.
Di
fronte al mare magnum d'informazioni disponibili su Internet,
l'utente medio - in genere - dovendo operare una selezione funzionale
ai suoi obiettivi conoscitivi può trovarsi in difficoltà, quando
non sentirsi perso. La cernita nella mole di materiale non è peraltro
l'unico problema di fronte al quale il 'ricercatore' impatta: la
libertà totale su cui si basa la diffusione di informazioni - principio
totalmente condivisibile - può non significare in assoluto che le
stesse siano ineccepibili in quanto ai contenuti o al loro "processo
produttivo". Le fonti dei dati, la validità, l'attendibilità, la
fedeltà sembrano non avere a volte una grande rilevanza per coloro
che diffondono conoscenza attraverso la rete. Francesca Zajczyk
(1996) sottolinea giustamente l'importanza di alcuni concetti chiave
nel momento in cui si procede sulla strada della raccolta dei dati
prodotti da altri soggetti.
In primo luogo l'autrice sintetizza il dibattito sul concetto di
analisi secondaria: partendo da Hyman (1974) per cui tale tipo di
analisi consiste nell'estrazione di conoscenza su argomenti diversi
da quelli che rappresentano l'oggetto dell'indagine originale, si
arriva al contributo di Steward (1984) per il quale invece essa
rappresenta un qualcosa di differente, ovvero "ogni ulteriore analisi
relativa ad informazioni che sono state ottenute in precedenza.
Essa può essere in relazione con il fine per cui i dati sono stati
raccolti, o può indirizzarsi a un problema diverso da quello che
ha generato la collezionerei dati originari. Può coinvolgere (infine)
l'integrazione di informazioni da molteplici fonti o una rianalisi
dei dati di una singola fonte" (in Zajczyk 1996: 13).
L'autrice sottolinea ancora come "l'analisi secondaria offre al
ricercatore il vantaggio di evitare la fase della raccolta (...).
Tuttavia comporta, rispetto all'indagine primaria, numerosi svantaggi
di cui il ricercatore deve essere consapevole, derivanti essenzialmente
dall'eterogeneità delle fonti e dalla limitata informazione sui
criteri di raccolta de di eventuale elaborazione dei dati d'origine
a lui esterna.
I limiti sono raggruppabili nelle seguenti categorie:
o inadeguatezza delle informazioni rispetto alle esigenze della
ricerca dal punto di vista del livello territoriale di riferimento;
o inadeguatezza del contenuto dell'informazione rispetto ai problemi
posti dal ricercatore;
o disomogeneità dei dati forniti dai diversi enti produttori;
o qualità dei dati di livello ignoto e non garantito" (Zajczyk,
1996: 14).
Se si fa riferimento invece al concetto di fonte, il primo ausilio
lo fornisce un qualsiasi dizionario: Devoto Oli (1990), ad esempio,
in secondo significato figurato chiarisce come si debba considerare
una fonte "chiunque sia in grado di offrire informazioni attendibili
e di prima mano" [1]. Dal punto di vista
sociologico/metodologico si può dire che una fonte sia coincidente
con ogni "entità che consenta di acquisire informazioni o dati che
si riferiscono a fenomeni, avvenimenti o gruppi sociali, collocati
in un preciso ambito e relativi ad un certo momento temporale. (...)
Centrale nell'analisi secondaria è la valutazione della qualità
dei dati [2]. L'utente di dati altrui
dispone di solito del solo prodotto finale fornito in genere senza
una valutazione dell'incidenza dei possibili errori. Egli deve quindi
ricostruire il percorso che ha condotto ai dati e in ogni fase deve
poter fornire una descrizione non ambigua" (...) (Zajczyk, 1996,
13-14).
Infine pare opportuno proporre alcune definizioni chiave, riferite
ai concetti di validità, attendibilità e fedeltà, in quanto in esse
trovano fondamento alcune delle riflessioni fatte nel presente contributo.
Per validità si intende il rapporto tra un concetto e un/il suo
indicatore, ovvero quanto quest'ultimo è in grado di rappresentarlo
(Zajczyk 1996:91 e ss.); per attendibilità si intende l'effettiva
capacità di un indicatore di misurare il concetto indagato (Bezzi-Palumbo,
1995: 51). Per fedeltà si intende la capacità (in particolare di
uno strumento) di registrare senza distorsioni lo stato del soggetto/oggetto
in analisi (Zajczyk, 1996, 96).
Il fine che attraverso questo contributo si vorrebbe raggiungere,
con un costante riferimento alla metodologia della ricerca sociale,
è duplice: da un lato, ridare la legittima dignità ai concetti sopra
enunciati [3] con particolare riferimento
al caso della ricerca su Internet e dall'altro proporre alcune soluzioni,
mutuate dalla stessa metodologia, per casi in cui si trovano le
informazioni nella rete ma non si è certi della loro 'qualità' [4].
Nel volume Internet 2000 [5] vengono
proposte delle regole base per la ricerca on line partendo
da due concetti chiave: informazione ordinata e disordinata.
La prima consiste nella ricerca di notizie fatta, ad esempio,
attraverso il catalogo di una biblioteca come "raccolta ordinata
di informazioni, che è possibile consultare attraverso un'interfaccia
standard e su cui è possibile effettuare ricerche attraverso
un linguaggio di interrogazione. (...); se la ricerca ha esito
positivo, ne ricaveremo un certo numero di schede bibliografiche,
con una struttura costante, data da autore, titolo dell'opera,
luogo e anno d'edizione, numero delle pagine, formato, collocazione."
(AA. VV 2000, 219-20). Il secondo concetto, cioè d'informazione
disordinata, nasce quando si selezionano, sui diversi motori
di ricerca, i termini di cui si vogliono conoscere tutti i
contributi disponibili.
Le pagine e pagine di notizie trovate, un vero "guazzabuglio conoscitivo",
sono un probabile risultato della ricerca svolta. Gli autori suggeriscono
pertanto una serie di efficacissimi correttivi 'tecnici' (che non
riguardano cioè la qualità del dato), quali gli operatori booleani
(oggi ormai previsti implicitamente nei motori di ricerca, almeno
per la parte di ricerca di base), l'uso d'indici sistematici (con
una discesa nel dettaglio dei vari argomenti individuati progressiva
e ragionata), la scelta di motori di ricerca per argomenti e non
solo per termini... e chi più ne ha più ne metta. Ma il problema
del buon dato rimane sempre. Se si riflette sulla definizione di
ricerca disordinata, per procedere sulla strada della similitudine
con la metodologia, essa rappresenta un caso di potenziale mancata
sovrapposizione tra due schemi mentali: quello del ricercatore che
ha bisogno di trovare notizie sull'argomento'x' o sull'argomento
'y' e quello di colui/coloro che ha/hanno costruito gli indici sistematici
o proposto i link ai diversi siti che contengono quelle specifiche
informazioni.
Il problema della sovrapposizione tra schemi mentali è realmente
un aspetto da non dover trascurare. Alberto Marradi (1980: 1) ha
definito in modo molto efficace un concetto; esso è un: "ritaglio
operato in un flusso di esperienze infinito in estensione e profondità
e infinitamente mutevole". La definizione mette in evidenza almeno
due punti chiave: è l'esperienza che provoca la 'creazione' del
concetto, ma soprattutto l'intero contorno (spazio-tempo) può contribuire
alle sue modificazioni. La storia, ad esempio, insegna perfettamente
come i concetti siano destinati a mutare nel tempo acquisendo, a
seconda dei momenti, connotazioni positive o negative [6].
In un suo contributo Mauro Palumbo (1992: 17) ne codifica di tre
tipi: comunemente condivisi, apparentemente condivisi e propri della
comunità scientifica. Gli unici su cui non dovrebbero esservi dubbi
sono quelli appartenenti al primo gruppo in quanto acquisiti per
esperienza 'diretta' da parte degli individui (grazie all'impiego
di tutti o parte dei cinque sensi): ne fanno parte casi come albero,
fiore, sedia, tavolo e simili, su cui difficilmente possono esistere
incomprensioni, poiché sono oggetti che si possono vedere, toccare,
che hanno profumi. Magari gli individui non conosceranno stili diversi
di un tavolo, ma il concetto esiste comunque in ognuno. Dei concetti
apparentemente condivisi fanno parte tutti quei casi in cui sembra
esistere condivisione fra le persone in merito all'immagine mentale
che essi possono evocare, ma non è detto che ciò accada davvero.
Infine quelli propri della comunità scientifica sono da usare solo
in presenza di addetti ai lavori, pena la sicura non comprensione
tra individui. Gli esempi che la rete offre sono prevalentemente
appartenenti del secondo o del terzo tipo, a seconda dell'argomento
indagato.
Ancora Palumbo, nel suo contributo citato in precedenza, aggiunge
che la sovrapposizione tra schemi concettuali (che, nel nostro caso,
sono quelli del ricercatore su Internet e del gestore delle informazioni)
può avvenire con tre macro-esiti finali e sub casi per ogni tipologia
(ibidem, 26 ss.):
o corrispondenza perfetta (realtà che coincide con gli stereotipi
dei due soggetti, coincidenza fra soggetti perfetta, seppur limitata
rispetto alla 'realtà' di riferimento);
o corrispondenza parziale (stereotipi di uno dei due soggetti più
o meno ampio di quello dell'altro o solo in parziale sovrapposizione);
o corrispondenza artificiale (che produce o dati che erano presenti
nei soggetti e che non sarebbero emersi diversamente, o dati inventati).
Come si può intuire, tutto risiede in questioni di chiarificazione
concettuale: bisogna porsi il problema del significato del "concetto
indagato" (che nel nostro caso corrisponde all'oggetto della ricerca
on line) e, per conseguenza, dei termini che possono essere
stati usati per 'etichettarlo'. Ad esempio, fino a poco più di un
anno fa per trovare i link giusti alle home page dei
servizi sugli itinerari stradali da percorrere per raggiungere una
località, una delle parole da digitare era "mappe stradali". I termini
"itinerari stradali" permettevano di accedere soltanto ai siti delle
autostrade o a quelli che proponevano giri turistici.
In seguito, probabilmente, i 'divulgatori' di questi servizi si
sono resi conto che le parole "mappe stradali" non erano da considerare
così scontate per arrivare nei loro siti, quanto meno non per tutti:
ed ecco che, digitando oggi "itinerari stradali", si arriva come
primo risultato al sito di Kataweb www.kwmappe.it/percorsi.html
. Può dunque accadere che le ricerche non portino a risultati soddisfacenti
semplicemente perché non sono stati selezionati quei termini che,
secondo la logica del Web, dovrebbero condurre verso un sito piuttosto
che un altro. Individuare almeno 3-4 sinonimi dell'etichetta terminologica
e provarli tutti potrebbe già rappresentare una valida soluzione.
Se neanche in questo caso si dovessero ottenere risultati apprezzabili
è estremamente probabile che il problema non stia più nel termine,
ma nell'argomento, forse poco diffuso nella rete.
Un secondo consiglio utile consiste nel non accettare passivamente
le informazioni che si trovano in siti la cui struttura/impostazione
possa anche far supporre una validità intrinseca. Esiste, ad esempio,
un sito americano ( www.findagrave.org
) il cui obiettivo è quello di permettere visite virtuali alle tombe
di personaggi noti sparse nei cimiteri del mondo. Il sito offre
anche un valore aggiunto, dato da biografie (brevi ma esaustive)
di ciascuno di tali personaggi, fatto che permetterebbe di tenerlo
in considerazione anche per piccole ricerche di tipo storico (ed
in questa direzione vanno anche le aspettative degli stessi realizzatori
del sito). Alla cura tributata alla redazione delle biografie non
corrisponde peraltro quella tenuta nella compilazione delle date
di nascita e morte. Sebbene questo aspetto possa sembrare di scarsa
importanza, in automatico mette in dubbio l'attendibilità dell'intero
sito, non permettendo più di tenerlo in considerazione quanto meno
per questa funzione storico-conoscitiva auspicata dal web master.
Per rendersi conto se le notizie proposte sono state curate correttamente
basta cercarne una particolare, di cui si sia ovviamente certi.
Questa forma di test 'interno' consente di valutare sia il contenuto
che il livello della 'qualità' del sito. Problemi di scarsa cura
possono interessare anche le pagine che riportano notizie soggette
a cambiamenti repentini o, in generale, a modificazioni nel tempo
(ad esempio quelle che danno notizie su concorsi e bandi, o che
hanno per oggetto i servizi erogati da strutture con sedi aperte
al pubblico). Le informazioni di questo genere vanno sempre verificate
non accettandole mai implicitamente, ma controllando a quando risale
l'ultimo aggiornamento del sito (che dovrebbe far presumere che
la verifica del contenuto sia stata effettuata in quella data) o
accertandosi, anche con un contatto diretto, dell'attendibilità
delle informazioni proposte nel sito stesso (così per evitare di
recarsi a vuoto nelle sedi indicate).
Con riferimento ai problemi sollevati in precedenza, ecco altri
esempi significativi: da due anni a questa parte gli studenti che
frequentano il corso di Teoria dell'Informazione possono preparare
per l'esame una tesina, con il duplice scopo di imparare a districarsi
nella mole considerevole di informazioni reperibili attraverso Internet
e a porsi il problema della validità ed attendibilità delle informazioni
trovate nella rete. I requisiti richiesti propedeutici alla stesura
di tale tesina sono: una buona conoscenza, sull'argomento individuato;
il fatto che esso abbia il più possibile ricadute e implicazioni
locali; la condizione che la ricerca su Internet venga effettuata
attraverso più motori di ricerca; l'obbligatorietà di trascrivere
il percorso effettuato per il reperimento delle informazioni in
una parte dedicata definita "sezione metodologica"; una cura estrema
per la sitografia, con rimandi ai siti consultati per ogni capitolo.
Il percorso proposto richiama molto lo schema tradizionale delle
fasi della ricerca, seppure con alcuni adeguamenti funzionali al
tipo di indagine svolta. Infatti l'individuazione dell'argomento
può corrispondere alla prima fase chiamata "scelta del problema
e formulazione dell'ipotesi" (Bailey 1991; ma anche Palumbo 1991).
Anche l'impostazione del disegno della ricerca non sembra distaccarsi
molto da quanto deve poi essere effettuato per la raccolta dei dati
on line: si possono infatti applicare tecniche di campionamento
ad insiemi di documenti (sebbene sia spesso complesso individuare
a monte l'universo di riferimento); anche per gli strumenti non
ci si discosta molto dalla metodologia: analisi 'qualitativa' del
materiale disponibile; ma anche interviste semistrutturate, con
riferimento al ruolo fondamentale che, in caso di dubbi di contenuto,
potrebbe essere assolto da testimoni qualificati chiamati in causa
per validare i testi trovati in rete, come si vedrà più oltre.
Per quel che riguarda la fase di codifica e analisi dei dati, da
un lato la similitudine è ovvia con le tecniche definite di "analisi
del contenuto" o di lettura ragionata di tutto il materiale (con
il fine di utilizzarlo per l'impostazione dello scenario di sfondo
o per la vera e propria trascrizione del report di ricerca). Infine
la stesura del rapporto finale - e il confronto dei risultati ottenuti
con le ipotesi di partenza, per confermarle o smentirle - vale come
nella ricerca sociale e chiude il percorso effettuato. Quanto sopra
non è comunque sufficiente ad annullare i problemi di attendibilità
e validità delle informazioni reperibili on line.
Internet viene spesso considerato 'la' fonte per eccellenza, mentre
la rete è, più di frequente, un semplice veicolo di diffusione delle
informazioni, dotate di una loro origine e una loro 'paternità'
esterne. A questo proposito ecco un caso emblematico: una studentessa
aveva manifestato l'intenzione di scrivere la propria tesina su
un argomento abbastanza complesso e in un certo senso 'rischioso'
per la quantità e qualità di notizie reperibili su Internet: il
ruolo dei sogni, non solo con riferimento alle modalità d'interpretazione
ma anche dei cosiddetti "sogni lucidi" abbinati o meno ai "viaggi
astrali". Il tema è stato affrontato con molta passione e con altrettanta
attenzione dalla candidata. Una volta terminata la stesura del testo,
il lavoro era approdato alla valutazione finale.
Alla prima lettura era emerso peraltro un particolare piuttosto
singolare: la relazione conteneva oltre 40 citazioni di testi, con
intere frasi trovate in diversi siti; di nessuna di esse, peraltro,
era nota la fonte originale. Con molta fatica la candidata ha cercato
di rimediare a questo potenziale 'plagio' (di cui diversamente sarebbe
risultata anche lei correa), riuscendo ad abbinare con grandi difficoltà
solo l'autore a buona parte delle corrispondenti citazioni, creando
quindi per alcuni casi una bibliografia parziale e rimandando, per
gli altri, ai siti da cui aveva estrapolato le attribuzioni incomplete.
Un'altra studentessa aveva invece scelto come argomento della sua
tesina le leggende su fantasmi e su altre presenze misteriose a
Genova. La ricerca per il reperimento mirato delle informazioni
era stata condotta utilizzando Google, Excite, Yahoo e Altavista
(quindi attraverso motori per termini e per argomenti).
Durante la fase di raccolta di dati dalla rete era stato individuato
un sito su leggende locali (principalmente sulla Lanterna e su una
casa rosa in una zona di Genova, quest'ultima citata anche in altre
pagine web e, per questo motivo, dunque, reputata più 'affidabile').
La particolarità delle informazioni proposte aveva incuriosito la
candidata, spingendola a contattare il 'titolare'. Come noto a molti,
conoscere il soggetto 'responsabile' di un sito è possibile attraverso
un uso 'indiretto' [7] del servizio www.register.it:
nella home page si digita il nome del sito di cui si vuole
conoscere il 'depositante', come se lo si volesse registrare. Peraltro,
il fatto che qualcuno abbia già utilizzato il nome proposto viene
segnalato immediatamente ed è possibile conoscere tutti i dati di
colui che ha registrato il sito per primo (nome, cognome e i vari
recapiti per un eventuale contatto). E' stato così possibile inviare
una e-mail alla responsabile del sito richiedendo alcune
precisazioni sulle storie da lei descritte. Con molta rapidità (e
correttezza, con il senno di poi) la persona ha risposto che ognuna
delle storie presentate era esclusivo frutto della sua fantasia:
il contenuto di questo sito non è stato di conseguenza utilizzato
per la redazione della tesina.
Questo approccio introduce l'ultimo suggerimento per riuscire ad
ottenere informazioni attendibili sul contenuto di alcuni siti:
ricorrere o direttamente al soggetto che ne ha registrato il nome
o ad un testimone qualificato, come tale esperto nell'argomento
in analisi. La teoria metodologica non si è molto occupata dei testimoni
qualificati fino agli anni '80, quando Maura Del Zotto (1985) ha
sistematizzato per prima i contributi (in verità pochissimi) in
allora esistenti, reperiti facendo ricorso alla sola letteratura
straniera. Come ricorda l'autrice "nella corrente pratica della
ricerca sociologica si intendono per testimoni qualificati o informatori
chiave, quelle persone che vengono di solito interpellate in una
fase preliminare [8], per raccogliere opinioni
o informazioni su un determinato argomento" essendone costoro conoscitori
per vari motivi: "posizione all'interno della comunità; conoscenza
dettagliata dell'argomento trattato; disponibilità a cooperare;
capacità di comunicare il proprio pensiero; imparzialità."(Del Zotto
1988, 134).
In particolare può essere significativo porsi il problema di quale
sia lo strumento più adatto per effettuare l'intervista al testimone,
una volta che sia stato individuato. Le tecniche applicabili possono
essere, come ha sostenuto Del Zotto, o l'intervista/colloquio in
profondità o la somministrazione di un questionario. Nel primo caso
il testimone verrebbe messo nelle condizioni di reagire alla situazione
intervista piuttosto che di subirla (Pinto 1964); egli detiene infatti
le informazioni, che l'intervistatore deve fare emergere. "Il compito
dell'intervistatore dovrebbe essere relativamente passivo: introdurre
l'argomento, in modo da dare al testimone qualificato degli orientamenti
da seguire. Ma egli deve però al contempo essere abile nello stimolare
l'interesse del testimone, ravvivandogli la memoria e inducendolo
a rilevare tutto ciò che conosce sull'argomento"(Ibidem 137). L'autrice
evidenzia poi come il questionario non sia propriamente lo strumento
più indicato per la raccolta delle informazioni ricercate presso
un "testimone chiave", in quanto troppo standardizzato nella sua
struttura e a rischio di superficialità nelle risposte ottenibili.
Del Zotto, richiamando poi Marradi e Pitrone, ricorda come "possa
accadere di operativizzare concetti diversi da quelli che interessavano
originariamente, perché può non esistere corrispondenza di significati
attribuiti alla domanda da ricercatori e intervistati (...). Inoltre
una domanda può essere interpretata in maniera del tutto diversa
e non prevedibile dai vari intervistati: i termini impiegati e il
complesso della domanda possono evocare concetti diversi da quelli
cui intendeva riferirsi il ricercatore" (Ibidem 138). Opinione dello
scrivente è che i migliori risultati dal contatto con un testimone
qualificato - e ciò vale qualunque sia l'argomento su cui si cercano
informazioni - si ottengano dalla somministrazione di un'intervista
semistrutturata, dove il ricercatore prevede cioè una traccia di
cinque-sette argomenti su cui vanno raccolte notizie.
Nella redazione delle tesine del corso di Teoria dell'Informazione
sono stati usati testimoni qualificati ad esempio per lavori sulla
musicoterapia, sulla storia della 'Vespa' della Piaggio, sulla già
accennata tesina relativa alle leggende di Genova antica. Ed in
genere gli studenti sono costantemente incitati a ricorrere ai testimoni
qualificati: ne verranno ad esempio contattati due norvegesi, che
da anni vivono in un comune della provincia di Imperia, per ottenere
informazioni utili per la stesura di una tesina sui villaggi cablati
in Liguria [9].
La metodologia della ricerca sociale può realmente essere sovrapposta
e utilizzata in molte sue parti per una ricerca ragionata di materiale
disponibile nella rete, ad oggi veramente sconfinato in senso quantitativo
e qualitativo. La rete può essere un fonte di informazioni valida
e attendibile, a condizione che le stesse vi siano state messe da
produttori/diffusori competenti; in merito alla fedeltà delle informazioni,
l'approccio migliore è forse quello di muoversi con cautela (in
particolare con i siti non istituzionali) e, in caso di forte perplessità,
chiamare in causa lo stesso produttore/diffusore o un esterno neutro
che possa, in funzione dell'esperienza su quello specifico argomento
- cioè in qualità di testimone qualificato - sciogliere i dubbi
una volta per tutte o, per contro, confermarli definitivamente!
BIBLIOGRAFIA
Kenneth D. Bailey (1991) Metodi della ricerca sociale, Bologna,
Il Mulino.
Claudio Bezzi, Mauro Palumbo (1995) Questionario e dintorni, Perugia,
Gramma.
Marco Calvo, Fabio Ciotti, Gino Roncaglia, Marco A. Zela (2000)
Internet 2000, Bari, Laterza.
Maura Del Zotto (1988) I testimoni qualificati in sociologia in
Alberto Marradi (a cura di) Costruire il dato, Milano, Franco Angeli.
Giacomo Devoto, Gian Carlo Oli (1990) Dizionario della Lingua Italiana,
Firenze, Le Monnier.
Herbert Hyman (1974) Secondary Analysis of Sample Survey, New York,
Wiley, in Francesca Zajczyk (1996), Fonti per le statistiche sociali,
Milano, Franco Angeli.
Alberto Marradi (1980) Concetti e metodi per la ricerca sociale,
Firenze, Giuntina.
Mauro Palumbo (1991) Problemi di metodologia della ricerca sociale,
Genova Ecig.
Mauro Palumbo (1992) Concetti dell'uomo della strada e concetti
del ricercatore, in Alberto Marradi e Giancarlo Gasperoni (a cura
di), Costruire ilo dato 2, Milano, Franco Angeli.
Richard Pinto (1964) Méthodes des Sciences Sociales, Paris, Dalloz.
Marco Razzi (1992) Fedeltà dei dati raccolti tramite questionario:
un controllo empirico in Alberto Marradi e Giancarlo Gasperoni (a
cura di), Costruire il dato 2, Milano, Franco Angeli.
Daniel W. Steward (1984) Secondary Research: information sources
and methods, London, sage Publications, in Francesca Zajczyk (1996),
Fonti per le statistiche sociali, Milano, Franco Angeli.
Francesca Zajczyk (1996) Fonti per le statistiche sociali, Milano,
Franco Angeli.
NOTE
[1] Giacomo Devoto, Gian Carlo Oli
(1990), Dizionario della lingua italiana, Firenze, Le Monnier.
[2] In corsivo nella citazione originale.
[3] Devo molto a Mauro Palumbo e Nicoletta
Stame per alcune chiacchierate fatte e per gli stimoli che
mi hanno fornito: ma una particolare gratitudine va anche
agli studenti, senza i cui lavori molte di queste riflessioni
non avrebbero visto la luce.
[4] Per problemi di qualità del dato
e possibili soluzioni nei casi di ricerca quantitativa si
rimanda anche a Marco Razzi, (1992) Fedeltà dei dati raccolti
tramite un questionario: un test empirico, in Alberto Marradi
e Giancarlo Gasperoni (a cura di), Costruire il dato 2, Milano
Franco Angeli.
[5] Volume ormai piuttosto superato
nei contenuti, ma non nell'impostazione; l'aggiornamento Internet
2004 - quando disponibile - colmerà lo iato temporale rispetto
alle precedenti e soprattutto illustrerà l'avanzamento registrato
dai vari temi trattati. Si rimanda comunque a Marco Calvo,
Fabio Ciotti, Gino Roncaglia, Marco A. Zela (2000), Internet
2000, Bari, Laterza.
[6] Si pensi ad esempio all'evoluzione
di concetti quali fascismo e comunismo negli ultimi 80 anni.
[7] Lo scrivente è grato al dott. Luciano
Lombardi della società Totem s.r.l. di Genova per questo e
per molti altri suggerimenti dati in occasione dell'incontro
organizzato con gli studenti del corso di Teoria dell'Informazione.
[8] Ma non solo in essa, come è logicamente
intuibile: il testimone qualificato può (anzi dovrebbe) intervenire
nel momento in cui il ricercatore lo giudichi utile rispetto
ad un imprescindibile bisogno di chiarimenti sull'argomento
in analisi.
[9] Il cui titolo, ancorché provvisorio,
scelto dal candidato è "Rinascita del villaggio: ripopolamento
dello spazio rurale e nuovi stili di vita in Liguria".
newsletter subscription
www.analisiqualitativa.com