sabato 19 febbraio 2011
utilizzo di XENU
XENU per controllare anche i domini ce vengono linkati
se la copia cache è vecchia ALLARME
6 mesi vecchia se superiori ai 45 giorni c'è problema...
allora si deve vedere se la pagina viene scaricata dallo
spider ma non aggiornata...
Dare a XENU
Un elenco di url qualunque per fare un check di domini
per vedere se esistono o no
Esempio pratico
esistono delle piattaorme che permettono agli utneti di creare forum
molti di questi forum hanno una vita molto breve e a volte vengono chiuse
Cosa sucede ad un form che viene chiuso?
Dipende dalla piattaforma che eroga il servizio
Xenu può essere utile per recuperare forum più o meno popolari.
Quindi è possibile utilizare XENU per dargli in pasto
Si sente la necessità di uno Strumento che calcoli il PR delle pagine di un sito
Quando come per esempio con aruba
xenu viene bloccato
modificare lo useragent di XENU
IL SEO è un ornitorinco
L'onritorinco mise in discussione le catalogazione degli scienziati ^_^
non era un uccello ma aveva il becco, era un "mammifero" perchè allattava... ma produce uova ...
:)
Il SEO è una via di mezzo tra un'ornitorinco ed un alteta di decathlon.
L'ornitorinco (Ornithorhynchus anatinus, Shaw 1799), detto anche platipo (platypus in inglese, mallangong dai nativi australiani), è un piccolo mammifero semi-acquatico endemico della parte orientale dell'Australia. È una delle sei specie ancora esistenti che compongono l'ordine dei monotremi, gli unici mammiferi che depongono uova invece di dare alla luce dei piccoli (le altre cinque sono note complessivamente col nome di echidna). È l'unico rappresentante della sua famiglia (Ornithorhynchidae) e del suo genere (Ornithorhynchus), sebbene siano stati trovati alcuni parenti fossili, alcuni dei quali anche nel genere Ornithorhynchus. Il nome scientifico del genere (come quello comune italiano) è composto da due parole greche: ornis-ornithos (ὄρνις-ιθος), che significa “uccello”, e rynchos (ῥύγχος), che significa “muso”. Il secondo termine del nome scientifico della specie è invece derivato dal termine latino per anatra: anas-atis.
Migliorare la condizione di un sito per ottenere un miglioramento di visibilità.
Cosa succede ad un sito web accessibile agli spider senza testo nei title e senza intestazioni?
Quando lo pider si trova dif ronte ad una risorsa priva di strittura, per esempio privo di titolo e di intestazione (h1 ecc), è stato verifcato
che lo spider preleva una frase dal testo, non sepre la prima frase.
Nel testo osservato le varie pagine riposrtavano la scritta TItolo: che venica omessa dallo spider
Sia Yahoo che Google sono capaci di identificare ed interpretare correttamente l'html non "correttamente" formattato.
come per sempio la capacità di identiicare un paragrafo anche senza il tag <p>.
A volte un link che è presente in un paragrafo ed un secondo link in un'altro paragrafo, hanno un valore semantico diverso.
Anche grazie a tag i intestazione ecc... i motori sono capaci di valutare ed interpretare la semnaticità delle risorse linkate
anche in base agli argomenti dei singoli paragrafi.
Semanticità
Title e meta description sono mandatori.
Nel caso dei glossari, è stato osservato che una dichiarazione esplicita di glossario in html
<dl>
<dt>...</dt>
<dd></dd>
</dl>
TAG da usare i tag di acronimi
I link inseriti nei paragrafi fa diferenza se il link è nel paragrafo in cima ch non un link presente in un paragrafo successivo.
Uno dei controlli da fare quado si analizza una pagina per valutare la sua potenzialità
è valutare se agli occhi dell'utente finale viene valorizzato il contenuto più strategico.
Non date ecessiva importanza alla presenza nel codice ma al reale posizionamento nella pagina.
Gli i-frame e la compatibilità con Google
- cosa viene scaricato dagli spider
- cosa viene indicizzato dal motore
- a quali risorse vengono associati i contenuti
- come possono essere sfruttati
La stessa risorsa che viene chiamata in iframe da tutto il sito può rievere rank...
www.giacomopelagatti.it
Google si è mostrato molto veloce ad indicizzare ed a mostrare il contenuto della pagina in iframe
Mentre Yahoo e Bing ci hanno messo mesi.
Anche con un Javascript offuscato.
Nel caso, si dovrebbe specificare tramite robots.txt per impedire ai bot di passare.
Un link all'interno di uno IFRAME ciene associato al contenitore della pagina iframe non all apagina stessa.
Gestione della duplicazione
- Gestione richieste HTTP e HTTPS
- Gestione richieste a "www" e "non: www"
- assenza ID di sessione negli URL
- Naming: coerenza maiuscole minuscole
- Naming: nome index implicito/esplicito
- Naming nome delle risorse univoco
- Ordine univoco dei parametri
- Versioni alternative delle pagine (es: stampa)
- Sistemi di paginazione
- Gestione dei contenuti non esistenti
# Gestione richieste a "www" e "non: www"
è bene effettuare un redirect 301 tra uno e l'altro
# assenza ID di sessione negli URL
per i motori è bene che non siano indicizzati gli url con id di sessione, importante anche perchè potrebbe contenere dati sensibili.
il cloaking in questo caso può essere d'aiuto
Attenzione quindi alle id di sessione ma anche a chiamate di ID che possono sonigliare agli ID di sessione.
il REL Canonical può essere un buon strumento. ma a volte il cloacking può essere la soluzione migliore.
# Naming: coerenza maiuscole minuscole
la soluzione migliore è quella di inserire un automatismo che generi solamente url in minuscolo
# Naming: nome index implicito/esplicito
robots.txt
Disallow /
e poi delle righe per segnalare un url speciica
url$
è impostare il dollaro impedisce la ricerca ricorsiva prevista dal protocollo del robots.txt
# Naming nome delle risorse univoco
può capitare che la stessa risorsa abbia la possibilità di essere richiamata tramite diverse url.
anche in questo caso è bene impostare le linee guida iniziali.
# Ordine univoco dei parametri
evitare che una risorsa possa essere richiamata sia con url/?param1=XXX¶m2&YYY che con url/?param2=YYY¶m1&XXX
questo spesso accade in molti CMS.
# Versioni alternative delle pagine (es: stampa)
problema relativo sopratutto al contenuto, è bene non are archiviare tali pagine al motore, ma non sempre
per esempio, un PDF anche se ha contenuto duplicato può essere anche opportuno diffondere il DF e farlo archiviare dal motore.
In modo che si trasformi magari in uno strumento di link popularity.
In genere i motori riconoscono nei file PDF una fnzione diversa rispetto alle pagine tendendo a non considerarle come duplicati
# Sistemi di paginazione
sono l'unica strada con cui gli spider possono accedere in profondità alle risorse di un sito
ci sono delle criticità, per esempio, molti CMS hanno l'abitudine di mostrare la prima pagina sia con pag=1 che senza...
si dovrebbe rimuovere pag=1 oppure usare sempre il paametro di pagina anche nel caso in cui la pagina sia la prima
Nel casi in cui le diverse categorie del sito hanno prodotti articoli ecc
# Gestione dei contenuti non esistenti
è molto importante la gestione dei 404.
DOMINI SCADUTI
migliaia di domini .it che possono essere riattiati e che hanno molti backlinks
esistono delle criticità di tipo legale
es: molti siti di banche che potrebbero essere registrati.
andare a registrare un marchio popolare ha dei palesi problemi legali
ma il problema è riscontrabile sia per piccoli brand che per domini con nome e cognome.
Quindi la prima cosa da fare è verificare che il dominio non appartenga ad un brand.
alcuni nomi a dominio possono essere bruciati per motivi SEO/SPAM
come fare per rendersene conto: in parte verificando i backlinks dei domini scaduti
Majestic SEO è uno strumento di riferimento anche perchè sono molti anni che fa croowuling ARCHIVE.org per i contenuti
Per fare networking è bene differenziare anche i dati di registrazione del dominio...
Un buon dominio ancora nelle grazie del motore riappare nelle SERP in poche ore, 2 gg max
ATTENZIONE anche ai contenuti ripubblicati, può avere un senso inserire dei contenuti semanticamente vicini Non inserire i contenuti che erano in precedenza! Sopratutto per problemi di copyright.
In genere "Ravanare" nel vecchio web directory forum e blog non aggiornati da almeno due anni.
Presenza di una struttura gerarchica
Realizzare una struttrira gerarchica ben congeniata con in mente sempre il seo è molto importante.
Pensare alla produzione di canali di acesso alternativi tramite creazione di tag automatici ed altro in modo da creare delle strade alternative per gli spider in modo che possano trivare delle classificazioni particolari come per esempio specifici soggetti, brad ecc...
In genere l'AUTO TAG può essere proprio molto utile!
Pensare alla produzione di canali di acesso alternativi tramite creazione di tag automatici ed altro in modo da creare delle strade alternative per gli spider in modo che possano trivare delle classificazioni particolari come per esempio specifici soggetti, brad ecc...
In genere l'AUTO TAG può essere proprio molto utile!
Resoconto della seconda giornata del seoswing
Si è parlato principalmente di URL e Linking.
Valutazione dell'architettura dell'informazione
- compatibilità del sito con le rcerche degli utenti
- copertura del traffico proveniente da ricerche competitive e del traffico proveniente da ricerche long tail
- presenza di una struttura gerarchica
- presenza di una struttura temporale
venerdì 18 febbraio 2011
compatibilità del sito con le ricerche degli utenti
Un aspetto molto importante sopratutto se si ha l'opportunità di realizzare un sito con l'attenzione al SEO prima e non dopo il suo sviluppo, è bene puntare molta attenzione a che la struttura dei contenuti sia capace di soddisfare quello che gli utenti effettivamente ricercheranno all'internodella specifica fascia tematica.
La possibilità, oltre all'applicazione di diversi ti pi di automatismo per far fronte alle richieste deli utenti, si deve partire da una reale base dati, costituita da un insieme di parole chiave identificate.
Per questo si possono usare diversi tool come:
Google suggestion tool
KeywordsMagnet.com
Enneagrama Extractor http://tools.searchbrain.it/ngram-extractor/
Utilizzando un mi di questi tool, ed una buona selezione e scrematura anche manuale sarà possibile ottenere un buon insieme di keyword che gli utenti ricercano e che apparterranno al campo semantico stabilito.
Direttamente dagli appunti presi dal corso:
utilizzando tool di suest keyfrase (keyword) come per esempio keywords magnet o kss scraper
usando keywords magnet o alrtri è bene dargli di partenza delle key prese da adwords
Rendere un sito fin dall'inizio che va in contro a quello che la gente cerca è molto importante ed è sicuramente vincente rispetto ad un adattamentod el sito in un secondo momento.
Utilizzando Enneagrama Extractor http://tools.searchbrain.it/ngram-extractor/
può essere molto utile per verificare la qualità delle key phrase
Analizzare lo sciame delle keyword che stanno attorno anche alle keywords principali, ed essere sempre pronti a generare delle pagine o delle sezioni che rispondano a quella esigenza.
Di fatto, una qualunque ricerca fatta dagli utenti è un potenziale che il sito può utilizzare.
Google News la prima giornata finisce con questo argomento
Tra tutte le informazioni racolte le più utili sono:
Per entrare in google news è importate avere una redazione composta da più elementi, ed è bene che la redazione sia ben in evidenza e facile da reperire best pratics è inviare la url della pagina di redazione. Ci sono stati casi in sala di siti che non sono stati ammessi fino a quando non fosse stato inviato il link della redazione.
Ci sono stati anche altri esempi portati che fanno riflettere: per esempio un discorso molto interessante sulle tendenze del momento e sul saper individuare l'argomnento del momento in modo da riceverne beneicio in termini di visibilità, ma anche casi di network di siti realizzati allo stesso modo su argomenti diversi di cui alcuni sono stati inseriti altri no.
Inoltre le specifiche delle url non sono mandatorie, cioè la url delle news possono avere anche una struttura diversa da quella indicata nelle linee guida di google news. anche se è stato riscontrato ce seguire le linee guida aiuta.
Per entrare in google news è importate avere una redazione composta da più elementi, ed è bene che la redazione sia ben in evidenza e facile da reperire best pratics è inviare la url della pagina di redazione. Ci sono stati casi in sala di siti che non sono stati ammessi fino a quando non fosse stato inviato il link della redazione.
Ci sono stati anche altri esempi portati che fanno riflettere: per esempio un discorso molto interessante sulle tendenze del momento e sul saper individuare l'argomnento del momento in modo da riceverne beneicio in termini di visibilità, ma anche casi di network di siti realizzati allo stesso modo su argomenti diversi di cui alcuni sono stati inseriti altri no.
Inoltre le specifiche delle url non sono mandatorie, cioè la url delle news possono avere anche una struttura diversa da quella indicata nelle linee guida di google news. anche se è stato riscontrato ce seguire le linee guida aiuta.
Amazon fa cloacking e Panopticlick ti trova anche se cambi indirizzo IP
Analisi di Amazon.it
le url per pagina viste dal bot sono minori rispetto a quele viste dall'utente.
Amazon di fatto fa cloacking, "un cloacking nobile" forse ma pur sempre cloacking
evita di dare al bot delle url parametriche che potrebbero istradare il bot in un loop ma gli fornisce dei contenuti diversi! Facendo questo anche con i link di affiliazione riesce a sfruttarli per enerare link in entrata.
Un sistema per traciare un tente unico senza l'indirizzo IP o altri dati sensibili:
http://panopticlick.eff.org/
un modo di tracciare in modo unico.
le url per pagina viste dal bot sono minori rispetto a quele viste dall'utente.
Amazon di fatto fa cloacking, "un cloacking nobile" forse ma pur sempre cloacking
evita di dare al bot delle url parametriche che potrebbero istradare il bot in un loop ma gli fornisce dei contenuti diversi! Facendo questo anche con i link di affiliazione riesce a sfruttarli per enerare link in entrata.
Un sistema per traciare un tente unico senza l'indirizzo IP o altri dati sensibili:
http://panopticlick.eff.org/
un modo di tracciare in modo unico.
Ulteriori informazioni sull'indicizzazione delle pagine tramite feed rss
# formato del feed & validazione
la validazione del formto (protocollo) del feed rss è importante anche se i bot dei motori sono "di bocca buona" prendono file rss anche molto carenti cercando di trarne una struttura coerente. Sempre meglio fornire ai motori il proprio feed rss e non quello di feedburner o altri generatori che sono sempre rielaborati e meno controllabili.
# frequenza di produzione
preso un sito, quante url nuove vengono create al giorno?
Sulla base di questo valore si decide in che modo aggiornare il feed, in genere i CMS generano i feed alla creazione di un nuovo item nel databse.
Però, a volte, è necessario che il feed venga customizzato, in tal caso è possibile non solo impostare sistemi di aggiornamento personalizzati, o in modo cadenzale, o per esempio al pasaggio del bot, ma ache personalizzarne i contenuti.
Teoricamente il feed potrebbe non avere una riperussione nella pagina.
Il trasferimento del pagernak ha bisogno di ricorsività.
Tra page rank ed indicizzazione.
A volte, anche se può essere rischioso, si creano delle url per contenuti he devono ancora uscire. In questo caso la pagina quando arriveranno i contenuti sarà molto avvantaggiata. In enere però il rischio è che la pagina venga vista come aggregtore senza contenuti reali, ma facendo attenzioena questo elemento si può ottenre un buon vantaggio.
# forzatura della produzione
in particolare se il feed viene utilizato per fini di indicizzazione può nascere la necessità di rivedere delle ul rinominarle ecc.
Per qusto è bene avere un sistema per orzare la produzione di feed come per asi di emergenza ecc...
QUindi sia la produzione che la modifca è importante.
Prima di automatizzare il ping dei feed rss, mai più di un feed all'ora, se serve fare più feed, ma inviare la uri di un feed solo una volta all'ora.
la frequenza dei ping deve essere effettuata non più di uno all'ora,
è bene inviare il feed manualmente e verificare che il bot passi sempre ad ogni chiamata ecc... a questo punto si può automizzare.
Servizi come Autoping.com.
L'autoping in genere è da non forzare estremamente. In genere è importante che l'invio del ping sia correlato alla produzione dei contenuti.
Quindi più ci sono contneuti nuovi e più sarà lecito pingare, in questo modo anche il bot troverà sepre più interesse nel visitare la risorsa.
[Smart Update pinger per wordpress]
[FeedBurner ha una funzione interna per l'autoping]
Come usare i feed RSS come strumento di indicizzazione
un buon feed devano essere anche un food per i motori! Nel caso di siti particolari, in cui i siano molte risorse da indicizzare un uso creativo dei feed può portare molti vantaggi.
In genere si consiglia di non pingare più di un feed per sito all'ora.
Ipotizziamo che le sitemap coprono fino ad un certo periodo storico ()
Potrei aprire una sezione on feed che tenda ad aderire il più possibile la frequenza con cui il bot lo viene a visitare
per esempio se il feed viene spiderizzato 5 volte al giorno ed il feed presenta 50 (meglio 30/40) url al giorno
qusto feed ha un potenziale di 250 url al giorno!
Tenete presente che il feed può essere autopingato.
Generare un feed con autoping ogni ora (supponendo che il bot passa ogni ora)
oppure il passaggio stesso è un trigger che stabilise l'aggiornamento del feed.
Si deve capire se è necessario autopingare il feed e rigenerarlo ogni tot tempo
oppure al passaggio del bot.
è utile che ogni rigenerazione riporti in cima l'ultimo record del pecedente.
Il sucesso di questo sistema è nel dare al bot sempre url nove, in questo modo il bot stbilirà che questa risorsa (il feed) è una risorsa
"succolenta", che fornisce url nuovi, scnosciuti al motore.
Nei canali che vivono di news non è il pagerank che stabilisce un vantaggio nelle SERP, ma la rapidità di indicizzazione.
A volte può essere il caso di aggiungere anche nel sito delle pagine con un elenco degli ultimi prodotti on-line.
Solo il primo anchor di link multipli nella stessa pagina conta... Vero o No?
Ci sono diversi post in rete già da tempo che parlano di questo, no di quelli segnalati al SeoSwing è stato questo, ma ne ha parlato anche su posizionamentozen.com, si tratta di esperimenti che sono stati tesi a dimostrare un particolare comportamento degli spider, che quando trova diversi link nella stessa pagina che puntano alla stess pagina considererà solamente la keywords del primo link.
Enrico altavila, uno dei relatori del corso, ha dimostrto in pochi minuti come qusto non sia di fatto vero.
Enrico altavila, uno dei relatori del corso, ha dimostrto in pochi minuti come qusto non sia di fatto vero.
Alcuni consigli sulla risoluzione dei problemi di velocità di un sito
Risoluzioni di problemi:
- lavorare sulle query del database è un aspetto molto importante
- usare meno javascript o accorpare in unico file oppure lo sposto in fondo se non è strettamente utilizzabile per il rendering.
- per i css limitare le regole di @import
Il controllo della velocità ovvimanete vale anche per le landing page e le campagne adwords, tanto che google stesso è stato un po un precursore di questo
aspetto. Il Quality Score infatti viene formato anche in base al tempo di caricamento.
Lo spazio di tempo che sta tra l'inizio e la linea verde indica la parte critica, può evidenziare dei file che stanno loccando il caricamento della
pagina, mentre la linea blu rappresenta la fine del caricamento.
Per le immagini la riduzione del tempo può essere data, sia da una compressione migliore, che da una restrizione del numero di file immagine. Per esempio
in alcuni casi si può usare un'immagine sola per più "disegnini" e spostarla tramite i css.
Inoltre sia per le imagini, che per file include anche in php per esempio, il percorso assoluto rispetto quello relativo riduce sensibilmente i tempi, allegerendo il lavoro del server e quindi la sua risoluzione.
Nel caso di iframe inseriti nella pagina la richiesta viene eseguita in parallelo, ma è bene analizzare la risorsa dell'iframe direttamente in
modo da verificare anche in questo caso se ci siano dei problemi di rallentamento anche qui.
Utilizzare la cache, sopratutto nei casi in qui il sito abbia un forte numero di uteti di ritorno, la cache è veramente strategica perchè può permettere un grande risparmio di risorse.
Minimizzare i file, è un'altro sistema che permette di risparmiare byte.
Iscriversi su http://gtmetrix.com/ permette di avere una traccia della storia, per verificare un prima e dopo gli interventi di miglioramento della velocità.
Comprimere i file con gzip in questo caso è bene monitorare bene la situaione, perchè la compressione gzip gestita dl server può killare la CPU.
Anche perchè gzip è CPU intensive. Esitono diversi tipi di compressione, in proporzione maggiore è il livello di compressione maggiore sarà il carico del server. Per esempio è possibile comprimere leggermente i file con gzip e caricare la CPU in modo molto limitato.
Per forum con post molto lunghi l'utilizzo di gzip può essere controproducente, sopratutto per gli utenti, perchè rallenta la renderizzazione del sito.
Rallentamenti di un sito, da cosa dipende?
Spesso i file javascript, specialmente librerie come ajax, un esempio sono quele librerie che gestiscono gallerie interattive ed altro,
sono critici.
Finchè tali file non sono stati scaricati tutti gli altri non vengono scaricati.
Inoltre la linea di rendering che su webpagetest.org viene rappresetnata da una linea verde
rappresenta tutto il "materiale più critico" tale tempo di attesa è il tempo reale che l'utente deve attendere prima di vedere apparire qualcosa.
Fare attenzione che non ci siano file JS che blocchino il caricamento.
Attenzione ai css:
- in generale i css devono essere prima di Javascript altrimenti hai un rallentamento sensibile
- a volte acade che un sito riceveva segnalazioni che i css non venivano caricati, quindi inizialmente la pagina si carica senza
spesso accade che, se un css anche se posizionato all'inizio ha degli tag import ed in questo caso il primo CSS non viene caricato
finchè tutti gli altri non sono stati caricati.
Page Speed migliora il posizionamento di un sito? Non ci credi? Meglio così ^_^
ANALIZZARE i valori di Page Speed delle singole pagine ma non sono attendibili le indicazioni di GWT ma con altri strumenti che vedremo...
anche perchè è nella facia sperimentale
Alcuni tool (i link sono nella sidebar del blog)
webpagetest.org
google page speed
yahoo wy slow (http://developer.yahoo.com/yslow/)
http://gtmetrix.com/
è importante che il tool si basi su veri browser, e che possono avere ei falsi positivi.
Quali sono le differenze tra webpagetest.org, google page speed e yslow
webpagetest.org fornisce una sequenza di tutte le informazioni che vengono efettuate al browser.
Fornisce una lista che da immediata evidenza di qali sono le risorse che rallentano le altre
L'elenco delle richieste di tutti i file che ompongono una pagina vengono messe in maggioranza in lista di attesa
fino a quando le risorse critivhe non sono state scaricate. Con webpagetest.org è possibile identificare queste risorse critiche.
Statistiche di scanzione
- pagine scansionate
- tempo di risposta
(a volte un picco di ralentaento può essere dovuto ad uno spider o ad altre ragioni, in genere quindi verificar i picchi su più campioni)
503 errore da inviare se il server è sovraccarico, significa: sono in manutenzione... si dice torne quando te lo dico io
il bot ti manitene, anche se viene ripetuto a raffica.
Un 500 ripetuto a raffica p una criticità consistente e può equipararsi ad un 404.
Correlare i picchi di lenteza in base al numero di pagine indiizzate
per comprendere se velocizzando il server si può aumentare il numero di pagine idicizzate.
Questo è un modo per trovare una reale potenzialità del sito.
Programma generale del corso SEOSwing
Analisi di un sito
- indicizzazione
- URL e Linking
- Lingua e testi
Professione SEO
-Evoluzione del settore
- Definizione di un target
- Progettazione dei servizi
- Approccio all'offerta
- Gestione Clienti
- indicizzazione
- URL e Linking
- Lingua e testi
Professione SEO
-Evoluzione del settore
- Definizione di un target
- Progettazione dei servizi
- Approccio all'offerta
- Gestione Clienti
giovedì 17 febbraio 2011
Amazon cloaking
Al SeoSwing Piersante spiega come amazon faccia cloacking utilizzando i link di affiliazione per generare link popularity per le nuove risorse, in questo modo, riesce a generare dei backlink per risorse appena uscite.
In sala sorgono confessioni spontanee: tipo "io ho un sito che fa cloacking e biene accettato da Google da anni" a seguire: "la url del sito?"...
Si continua a discutere del cloaking di Amazon...
Altre proposte:
-"Facciamo uno spam report in sessanta"
- "Scriviamo al Vescovo (Matt Cutts)"
Perchè?
Perchè se va bene, allora lo voglio fare anche io, se non va bene allora lo banni!!!
Sostanzialmente il succo è questo!!!
Amazon fa cloaking e lo voglio fare pure io!!!
Iscriviti a:
Commenti (Atom)
















