Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Public gplusextractor #Social #italian

116 views

Published on

Dimostrazione di un estrattore sociale, utilizzando G + API. Presentazione completa: http://goo.gl/MyY2PV

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Public gplusextractor #Social #italian

  1. 1. gplusextractor Lv1 #SoLA 15 project   Architettura  Console  CSV extracted  Spreadsheet model  Implementazione      Architettura     Console   ** La richiesta dal software G+ Id, e il numero di post da analizzare. 
  2. 2. CSV extracted     Il software crea un csv con i dati tradizionale, ma si puo agregare oltre structura.  Spreadsheet model   Questi sono i dati in un foglio di calcolo.                       
  3. 3. Implementazione   La colonna #test rappresenta la possibilità di analisi sopra un dizionario di parole, con questo  esplorare se l' ambiente sociale della persona utilizza lo stesso per la loro #post.    import​sys import​csv import​argparse from​oauth2client​import​client from​apiclient​import​sample_tools  Importazioni tipici al utilizzare  la G+ API e alcuni elementi  per la transizione verso #CSV  dal contenuto sociale.  argparser​=​argparse​.​ArgumentParser​(​add_help​=​False) argparser​.​add_argument​(​"-p"​,​​"--parameters"​,​nargs​=​'+'​, type​=​str​,​​default​=[​"android"​,​​"polymer"​],​help​=​"adding parameters") Passaggio di parametri [serie  di parole], per confrontare  con il corpo dal post.  people​=​raw_input​(​'G+idtoanalyze?:') postnumers​=​​int​(​raw_input​(​'numberofposts:'​)) service​,​flags​=​sample_tools​.​init( argv​,​​'plus'​,​​'v1'​,​__doc__​,​__file__​, parents​=[​argparser​], scope​=​'https://www.googleapis.com/auth/plus.me')  Le informazioni sull'account  da esaminare, poi viene  ricevuto il numero post to  analizare.    Il servizio di integrazione è  anche costruito.  person​=​service​.​people​().​get​(​userId​=​people​).​execute​() print​​'ID:%s'​​%​person​[​'displayName'] tech​=​flags​.​parameters print​​'Parametersused:%s'​​%​tech request​=​service​.​activities​().​list​(​userId​=​person​[​'id'​], collection​=​'public'​,​maxResults​=​'1') myfile​=​open​(​people​+​​'.csv'​,​​'wb')  i dati degli utenti sono  ottenuti, alcuni valori sono  mostrati    post sono richiesti.      anche si apre l'accesso al  csv.  try: writer​=​csv​.​writer​(​myfile) writer​.​writerow​((​'id'​,​​'content'​,​​'test'​,​​'replies'​, 'plusoners'​,​​'resharers'​)) ​#Informationfromactivities count​=​0 ​while​​(​count​<​postnumers​): activities_document​=​request​.​execute​() ​if​​'items'​​in​activities_document: ​for​activity​in​activities_document​[​'items'​]: id​=​activity​[​'id'] content​= activity​[​'object'​][​'content'​].​encode​(​"utf-8") test​=​any​(​x​in​content​.​split​()​​for​x​in tech) noi iniziamo a scrivere l’  schema into il CSV.    Dopo raccogliamo tutte le  informazioni dall'ambiente  sociale. 
  4. 4. replies =​activity​[​'object'​][​'replies'​][​'totalItems'] plusoners =​activity​[​'object'​][​'plusoners'​][​'totalItems'] resharers​= activity​[​'object'​][​'resharers'​][​'totalItems'] writer​.​writerow​((​id​,​content​,​test​,​replies​, plusoners​,​resharers​)) count​=​count​+​1 request​=​service​.​activities​().​list_next​(​request​, activities_document)     

×