Blog Rating Measurement System



  • Facebook
  • Twitter
  • Google Plus
  • LinkedIn
  • Delicious
  • Digg
  • OkNotizie
  • Pinterest
  • StumbleUpon
  • FriendFeed
  • MySpace
  • Netvibes
  • Reddit
  • Yahoo! Bookmarks
  • RSS

Blog Rating… No, non mi sono dimenticato: ci sto ancora ragionando sopra. Più ci penso e più mi convinco che il problema è semantico, ovvero, vale ancora il principio che a giudicare un articolo di un blog sia l’interesse suscitato da tale articolo in altri blog, ma che tale interesse vada valutato in termini semantici (giudizio) piuttosto che sintattici (collegamento).

Ma forse è meglio ricapitolare, per chi non avesse seguito tutta la discussione sui vari blog (Lupi, Morgagni e altri), si sta cercando di capire come si possa misurare la qualità complessiva e l’affidabilità dei contenuti di un blog. Perché farlo? Come ho già detto in un mio precedente articolo, sostanzialmente per tracciare una sorta di percorso guidato per chi decida di addentrarsi nella blogsfera. Non è una lista dei buoni o dei cattivi, ma una sorta di hit parade dei blog. E comunque sono in molti a farlo, per cui tanto vale trovare un buon modo di farlo. Sul fatto poi che sia nella natura umana il voler misurare o giudicare ogni cosa, lascio l’argomento agli appassionati di sociologia.

Vediamo piuttosto cosa si è fatto finora, partendo da due esempi, uno internazionale e uno nostrano: Technorati e BlogItalia.

Technorati usa come indicatore il numero di collegamenti a un blog trovati all’interno di altri blog. Il difetto maggiore di questo indicatore è che se io affermo che un articolo scritto su un certo blog è inaffidabile, superficiale e scritto male, il mio riferimento verrà interpretato come un voto positivo per quel blog, ovvero tutto il contrario di quello che era il mio intendimento. Inoltre, ovviamente, se il mio blog è scritto in italiano o in olandese, ad esempio, il mio rating complessivo sarà bassissimo, a parità di qualità, rispetto a quello di altri blog scritti in inglese.

BlogItalia ha invece usato per diverso tempo la tecnica del voto. In questo caso i difetti sono due: uno, che è possibile, da parte di blogger maliziosi, di alterare la propria posizione in classifica attraverso una «campagna di voti» mirati; l’altro è che un sito che abbia due voti alti, diciamo 8 e 9, risulta costantemente più in alto di un sito visitato un migliaio di volte, votato un sei o settecento volte, con una media — molto più ragionevole — di 7,72. Giustamente Tony, di BlogItalia, ha deciso alla fine di eliminare il meccanismo e di allinearsi al rating di Technorati.

Il problema quindi rimane. Numero di visitatori? Numero di collegamenti? E se sì, dove? Negli articoli? Nel blogroll? L’abitudine allo scambio di collegamenti nel blogroll, ad esempio, ha finito per creare vere e proprie cerchie che si sostengono a vicenda. Si tratta di un meccanismo sociale interessante e che ha una sua validità, ma può penalizzare proprio i blogger più singolari e originali, quelli che vanno fuori dai canoni, che scrivono fuori dal coro, o meglio, da uno dei tanti cori consolidatisi. Probabilmente una qualche formula che tenga conto di tutti questi aspetti potrebbe portarci più vicini a una misurazione apprezzabile della qualità di un blog in termini di contenuti e dell’affidabilità del blogger.

Tuttavia quello che potremmo chiamare l’approccio matematico, è sostanzialmente un approccio sintattico, ovvero parte da un’analisi dei dati tecnici (numero di visitatori, numero di collegamenti, posizione dei collegamenti) per poi estrapolare, sulla base di alcuni principi più o meno discutibili, un valore semantico, ovvero un’ipotesi di giudizio medio complessivo. A mio avviso il risultato finale ha comunque una validità limitata. Portando all’estremo l’esempio precedente, se la maggior parte dei blog indicasse un certo articolo come pessimo, questo porterebbe a un elevato numero di collegamenti, e quindi anche di visitatori, a quell’articolo, per giunta dall’interno di altri articoli. Il risultato della nostra ipotetica formuletta sarebbe un bel 10, o una A, come dicono gli americani. Certo, si dice anche «parlate pure male di me, purché ne parliate», ma non credo che applicare questa regola a un blog sia una buona idea.

E allora? Allora mi sembra di poter concludere che il problema del rating di un blog sia soprattutto un problema semantico e quindi vada affrontato con gli strumenti del web semantico. Ad esempio l’RDF. Si tratta ancora di un voto, ma questa volta contingente a un articolo. Inoltre richiederebbe che blogger che lo ci spenda del tempo e quindi si presuppone venga dato solo se c’è l’interesse a farlo.

Potremmo pensare a qualcosa del tipo

  <rdf:Description rdf:about="http://justablog.platform.com/?article=34567885">
    <dc:title xml:lang="it">Cosa è successo stamane</dc:title>
    <brms:rating brms:overall="7">
      <brms:topic brms:appeal="medium" popularity="high" />
      <brms:content brms:reliability="high" readability="good" />
    </brms:rating>
  </rdf:Description>

In questo esempio si è giudicato l’articolo molto affidabile (high reliability), facile da leggere (good readability), incentrato su un argomento abbastanza interessante (medium appeal), comunque molto in auge al momento (good popularity). Da notare che l’affidabilità è possibile valutarla solo su articoli tecnici o comunque che parlano di fatti (di cronaca, storici, sportivi, …), mentre nel caso di articoli d’opinione (politici, recensioni, …) si può solo parlare di fiducia, ovvero di trusting, per cui in quest’ultimo caso si potrebbe avere qualcosa del genere:

  <rdf:Description rdf:about="http://justablog.platform.com/?article=66678909">
    <dc:title xml:lang="it">La mia opinione su questo fatto</dc:title>
    <brms:rating brms:overall="8">
      <brms:topic brms:appeal="high" popularity="medium" />
      <brms:content brms:trusting="high" readability="good" />
    </brms:rating>
  </rdf:Description>

Si potrebbe inoltre pensare di dare un’indicazione su quanto sia innovativo il contenuto di un articolo, ovvero sulla sua innovatività o comunque originalità, nel caso stessimo parlando di opinioni.

  ...
      <brms:topic brms:originality="high" /> <!-- per le opinioni -->
  ...
      <brms:topic innovativeness="good" /> <!-- per gli articoli tecnici -->
  ...

A questo punto di potrebbe essere tentati di affermare che qualunque sia il meccanismo, esso debba essere pensato in modo che un voto di scambio o un’indicazione di qualità data in malafede o comunque sbagliata si debba rivoltare contro il blogger che ha votato come se fosse un boomerang. In pratica, se io dico che un certo articolo è affidabile quando la maggior parte delle persone dice di no, io dovrei essere penalizzato. Ahi… tasto dolente. E se avessi ragione io?

Questo piccolo esempio dimostra come sia complesso e difficile non tanto trovare il meccanismo, quanto il criterio. Il meccanismo potrebbe tranquillamente essere semantico, come lo sono PICS ed RDF, ma il criterio? Chi valuta il valutatore? Come impedisco che qualcuno sfrutti il meccanismo, un po’ come certi siti sfruttano i metadati per avere una posizione migliore nelle classifiche dei motori di ricerca? Materia per un altro articolo. Per ora accontentatevi del Blog Rating Measurement System basato sull’XML.

Commenti (7) a «Blog Rating Measurement System»

  1. andreabeggi scrive:

    C’è anche da dire che TR non ha mai cercato, per quanto ne so, di vendersi come una classifica di merito, ma sempre e solo come lista di blog più o meno linkati. Dimostrando in questo un pragmatismo anglosassone che qui (per fortuna/peccato) non abbiamo.

    La valutazione nei termini che tu ipotizzi può essere valida a fronte di strumenti che mi permettano di linkare e “votare” con pochi click, generando il codice da postare. E direi che le varie piattaforme potrebbero essere adattate con plugin e hack di varia natura.

    C’è però bisogno di un qualcosa/qualcuno che aggreghi queste valutazioni, una specie di TR “al quadrato”.

    tutte le volte che si parla di questo ranking mi viene in mente lo sport: è facile stabilire in maniera oggettiva chi salta più alto o arriva prima al traguardo; più difficile stabilire il migliore in una gara di atletica, pattinaggio o sport simili, che hanno comunque bisogno di una giuria qualificata. Ecco, per fare il paragone qui la giuria qualificata non c’è, ma c’è il televoto.

  2. Giusta osservazione. E giusta la richiesta di avere un meccanismo per trasformare un paio di click nel codice da mettere nell’articolo. Quest’ultima, tuttavia, mi sembra l’aspetto più facilmente realizzabile della soluzione, no?

  3. Fasttrack scrive:

    Ti ringrazio, estremamente stimolante.

    Ti ho risposto al volo sul mio, la discussione si fa sempre più ingarbugliata ed interessante…

  4. Spherik scrive:

    La posizione su Technorati può essere considerata indicativa della notorietà, ma anche in questo caso va presa con le pinze.

  5. Riporto il collegamento in formato cliccabile: Wiki.

Nessuna retrotraccia o avviso a «Blog Rating Measurement System»

Si prega di usare Facebook solo per commenti brevi.
Per commenti più lunghi è preferibile utilizzare l'area di testo in fondo alla pagina.

Commenti Facebook

Lascia una risposta




*


Nel rispetto delle apposite norme di legge si dichiara che questo sito non ha alcun scopo di lucro, non ha una periodicità prestabilita e non viene aggiornato secondo alcuna scadenza prefissata. Pertanto non può essere considerato un prodotto editoriale ai sensi della legge italiana n. 62 del 7 marzo 2001. Inoltre questo sito si avvale del diritto di citazione a scopo accademico e di critica previsto dall'Articolo 10 della Convenzione di Berna sul diritto d'autore.

EmailEmail
PrintPrint