gplusextractor
Lv1 #SoLA 15 project
 
Architettura 
Console 
CSV extracted 
Spreadsheet model 
Implementazione 
 
 
Architettura
 
 
Console
 
** La richiesta dal software G+ Id, e il numero di post da analizzare. 
CSV extracted
 
 
Il software crea un csv con i dati tradizionale, ma si puo agregare oltre structura. 
Spreadsheet model
 
Questi sono i dati in un foglio di calcolo. 
 
 
 
 
 
 
 
 
 
 
 
Implementazione
 
La colonna #test rappresenta la possibilità di analisi sopra un dizionario di parole, con questo 
esplorare se l' ambiente sociale della persona utilizza lo stesso per la loro #post. 
 
import​sys
import​csv
import​argparse
from​oauth2client​import​client
from​apiclient​import​sample_tools 
Importazioni tipici al utilizzare 
la G+ API e alcuni elementi 
per la transizione verso #CSV 
dal contenuto sociale. 
argparser​=​argparse​.​ArgumentParser​(​add_help​=​False)
argparser​.​add_argument​(​"-p"​,​​"--parameters"​,​nargs​=​'+'​,
type​=​str​,​​default​=[​"android"​,​​"polymer"​],​help​=​"adding
parameters")
Passaggio di parametri [serie 
di parole], per confrontare 
con il corpo dal post. 
people​=​raw_input​(​'G+idtoanalyze?:')
postnumers​=​​int​(​raw_input​(​'numberofposts:'​))
service​,​flags​=​sample_tools​.​init(
argv​,​​'plus'​,​​'v1'​,​__doc__​,​__file__​,
parents​=[​argparser​],
scope​=​'https://www.googleapis.com/auth/plus.me') 
Le informazioni sull'account 
da esaminare, poi viene 
ricevuto il numero post to 
analizare. 
 
Il servizio di integrazione è 
anche costruito. 
person​=​service​.​people​().​get​(​userId​=​people​).​execute​()
print​​'ID:%s'​​%​person​[​'displayName']
tech​=​flags​.​parameters
print​​'Parametersused:%s'​​%​tech
request​=​service​.​activities​().​list​(​userId​=​person​[​'id'​],
collection​=​'public'​,​maxResults​=​'1')
myfile​=​open​(​people​+​​'.csv'​,​​'wb') 
i dati degli utenti sono 
ottenuti, alcuni valori sono 
mostrati 
 
post sono richiesti. 
 
 
anche si apre l'accesso al 
csv. 
try:
writer​=​csv​.​writer​(​myfile)
writer​.​writerow​((​'id'​,​​'content'​,​​'test'​,​​'replies'​,
'plusoners'​,​​'resharers'​))
​#Informationfromactivities
count​=​0
​while​​(​count​<​postnumers​):
activities_document​=​request​.​execute​()
​if​​'items'​​in​activities_document:
​for​activity​in​activities_document​[​'items'​]:
id​=​activity​[​'id']
content​=
activity​[​'object'​][​'content'​].​encode​(​"utf-8")
test​=​any​(​x​in​content​.​split​()​​for​x​in
tech)
noi iniziamo a scrivere l’ 
schema into il CSV. 
 
Dopo raccogliamo tutte le 
informazioni dall'ambiente 
sociale. 
replies
=​activity​[​'object'​][​'replies'​][​'totalItems']
plusoners
=​activity​[​'object'​][​'plusoners'​][​'totalItems']
resharers​=
activity​[​'object'​][​'resharers'​][​'totalItems']
writer​.​writerow​((​id​,​content​,​test​,​replies​,
plusoners​,​resharers​))
count​=​count​+​1
request​=​service​.​activities​().​list_next​(​request​,
activities_document) 
 
 

Public gplusextractor #Social #italian