ANDRESSA WARKEN

SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE:
LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO

NOV...
2
ANDRESSA WARKEN

SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE:
LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO

M...
3
ANDRESSA WARKEN

Monografia apresentada como Trabalho de Conclusão do Curso de Comunicação
Social, Habilitação em Jornal...
4

RESUMO
Esta pesquisa investiga o uso das técnicas de Search Engine Optimization
nas redações online, considerando o rel...
5

ABSTR AC T
This research investigates the use of the SEO’s techniques in Online
Journalism. The authors that underlie t...
6

SUMÁRIO

INTRODUÇÃO.................................................................................................7
1...
7

INTRODUÇÃO

A World Wide Web se desenvolveu rapidamente e o número de páginas
cresce substancialmente ano após ano. Nes...
8

principais autores utilizados neste capítulo são Castells (2003), Fragoso (2007) e
Felipini (2010).
O segundo capítulo ...
9

1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA

A fim de mapear as práticas de Search Engine Optimization no Jornalismo
O...
10

na Universidade de Utah, segundo Castells (2003). Ainda de acordo com o autor, o
passo seguinte da ARPA “foi tornar po...
11

Além da contribuição da Arpanet, o formato atual da Internet foi resultado de
uma tradição de base de formação de rede...
12

hipertexto foi iniciado em 1989, por um grupo de pesquisadores chefiado por Tim
Berners-Lee e Robert Cailliau, no CERN...
13

1996, implantou-se a Fase II do projeto, com uma infraestrutura mais veloz que a
anterior. Nessa época, o RNP deixou d...
14

que as organiza por assunto e as disponibiliza organizadas em uma estrutura
hierárquica na forma de menus (diretórios)...
15

Já em 1994, surgiu o WebCrawler, “um bot capaz de associar o registro do
conteúdo completo das páginas à funcionalidad...
16

campos do código HTML e buscas por inlinks” (FRAGOSO, 2007, p. 6). Possuía
ainda um campo de dicas logo abaixo da área...
17

A princípio, Page e Brin não pareciam estar interessados em criar uma
empresa em torno de seu novo buscador, tanto é q...
18

desenvolvedores)” (KENDZERSKI, 2005, p. 99). Essa varredura é feita inicialmente
na primeira página do site e, conform...
19

Atualmente, os algoritmos tem sido utilizados também para personalizar o conteúdo
disponível de acordo com as preferên...
20

seriam as técnicas legais e quais seriam ilegais, até por que mecanismos de busca
como o Google sempre mantiveram seus...
21
Para uma pessoa, a meta tag precisa ser chamativa, interessante,
informativa, curiosa e com um toque de CALL-FOR-ACTION...
22

que querem encontrar palavras mais adequadas para regiões específicas ou até
mesmo fazer comparações mais profundas de...
23
tem muito a mostrar/oferecer, ou seja, quando uma página tem muito
conteúdo que trata de temas mais específicos em torn...
24

melhor posicionamento em mecanismo de busca de imagem, como o Google
Images por exemplo.
Muitos acessos a veículos onl...
25

principais palavras-chave no texto em negrito, para demonstrar ao buscador que
estas têm maior importância em relação ...
26

vendas ou fidelizar público, no caso de um site de notícias por exemplo. Quanto aos
links de saída, é importante que a...
27

2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO

Pesquisar o jornalismo na internet não é uma questão d...
28

UFBA (Universidade Federal da Bahia), entre as principais características do
Jornalismo Online estão:
- Hipertextualid...
29

- Atualização contínua ou instantaneidade: agilidade na produção e
disponibilização de conteúdo na Internet. O materia...
30

Mercury Center, que possuía desde 1993 uma versão eletrônica distribuída pela
companhia America On line por meio de um...
31

Nos Estados Unidos, diversas empresas norte-americanas cooperaram para o
desenvolvimento dos jornais online. Em 1995, ...
32

em papel. No ano seguinte, diversas empresas de comunicação espanholas já
tinham uma versão eletrônica de seu jornal i...
33

e chamou a atenção dos empresários do jornal, Mário Tascón pôde contar com o
apoio de um redator que, no início de sua...
34

espaço virtual” (MOHERDAUL, 2000 apud QUADROS, 2002, p. 12). O Jornal do
Brasil foi disponibilizado integralmente na r...
35

Os técnicos costumavam dizer que a fumaça poderia afetar os
equipamentos informáticos e os editores de O Estado de São...
36

daquele país estavam perdendo dinheiro e esse número cresceria ainda mais nos
anos seguintes, conforme Weaver (2009) a...
37

jornalístico – como o lead e a pirâmide invertida - bem como os critérios de
noticiabilidade foram se modificando ness...
38

Ele [internauta] procura tudo. Ávido, é capaz de visitar 100 sites em 100
segundos, vê de tudo, gosta de novidades e e...
39

acelerou esse processo, fazendo com que os principais jornais começassem a
disponibilizar informações produzidas em fl...
40

desempenhado por profissionais que exercem funções de filtragem e ordenamento
desse material, seja a nível jornalístic...
41

informação por meio de imagens (Pinterest, WeHeartIrt). Há também os sistemas
publicadores de conteúdo ou CMS (Content...
42

recomendação como curadoria. No primeiro caso, o curador seleciona e compartilha
alguma informação e faz um comentário...
43

3 MÉTODO E ANÁLISE

Para a viabilização deste levantamento sobre a utilização das técnicas de
Search Engine Optimizati...
44

problema pesquisado; análise de exemplos que estimulem a compreensão, segundo
Prodanov e Freitas (2009).
Quanto aos pr...
45

permitam

a

inferência

de

conhecimentos

relativos

às

condições

de

produção/recepção (variáveis inferidas) dest...
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro
Upcoming SlideShare
Loading in …5
×

Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro

1,611 views
1,501 views

Published on

Monografia apresentada em dezembro de 2013 como requisito parcial para a obtenção do título de Bacharel em Comunicação Social, Habilitação em Jornalismo, no Curso de Comunicação Social da Universidade Feevale, de Novo Hamburgo/RS, Brasil.

Resumo: Esta pesquisa investiga o uso das técnicas de Search Engine Optimization nas redações online, considerando o relato de experiências de profissionais da área familiarizados com o tema em questão. Os autores que fundamentam este estudo são Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012), e outros. O objetivo geral foi levantar as experiências e práticas de jornalistas brasileiros em relação ao Search Engine Optimization. Como objetivos específicos, buscou-se conhecer a história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e verificar quais as práticas recomendáveis e o conhecimento necessários aos jornalistas nesse assunto. As considerações finais apontam que os grandes grupos de comunicação já estão atentos às possibilidades da aplicação de SEO para a geração de tráfego aos sites de notícia. Verificou-se ainda que o conhecimento em SEO não é ainda um pré-requisito, mas sim um diferencial, para os jornalistas que pretendem atuar em redações online.

Published in: Marketing
0 Comments
3 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
1,611
On SlideShare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
10
Comments
0
Likes
3
Embeds 0
No embeds

No notes for slide

Search Engine Optimization em redações online: Levantamento de experiências no Jornalismo Brasileiro

  1. 1. ANDRESSA WARKEN SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE: LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO NOVO HAMBURGO 2013
  2. 2. 2 ANDRESSA WARKEN SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE: LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO Monografia apresentada como requisito parcial para a obtenção do título de Bacharel em Comunicação Social, Habilitação em Jornalismo, no Curso de Comunicação Social da Universidade Feevale, de Novo Hamburgo. Professora orientadora: Profa. Dra. Sandra Portella Montardo Novo Hamburgo 2013
  3. 3. 3 ANDRESSA WARKEN Monografia apresentada como Trabalho de Conclusão do Curso de Comunicação Social, Habilitação em Jornalismo, com título “Search Engine Optimization em redações online: levantamento de experiências no Jornalismo Brasileiro”, submetido ao corpo docente da Universidade Feevale como requisito necessário para a obtenção do Grau de Bacharel em Comunicação Social – Habilitação em Jornalismo. Aprovado por: __________________________ Profa. Dra. Sandra Portella Montardo Professora Orientadora __________________________ Thiago Mendes Banca Examinadora __________________________ Willian Araújo Banca Examinadora Novo Hamburgo, novembro de 2013.
  4. 4. 4 RESUMO Esta pesquisa investiga o uso das técnicas de Search Engine Optimization nas redações online, considerando o relato de experiências de profissionais da área familiarizados com o tema em questão. Os autores que fundamentam este estudo são Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012), e outros. O objetivo geral foi levantar as experiências e práticas de jornalistas brasileiros em relação ao Search Engine Optimization. Como objetivos específicos, buscou-se conhecer a história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e verificar quais as práticas recomendáveis e o conhecimento necessários aos jornalistas nesse assunto. As considerações finais apontam que os grandes grupos de comunicação já estão atentos às possibilidades da aplicação de SEO para a geração de tráfego aos sites de notícia. Verificou-se ainda que o conhecimento em SEO não é ainda um pré-requisito, mas sim um diferencial, para os jornalistas que pretendem atuar em redações online. Palavras-chave: otimização para busca. Jornalismo Online, SEO, mecanismos de busca,
  5. 5. 5 ABSTR AC T This research investigates the use of the SEO’s techniques in Online Journalism. The authors that underlie this study are Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012) and others. The overall goal was to raise the experiences and practices of Brazilian journalists in Search Engine Optimization. The specific objectives are to know the history of the Internet and Online Journalism; to know the basic techniques of SEO and check the best practices and the knowledge required of the journalists on this subject. The conclusions point that the big media groups are aware of the possibilities in applying SEO to generate traffic to news sites. The conclusions point out that . It was observed, too, that SEO knowledge is still not a prerequisite, but a differential for journalists who intend to work in online newsrooms. Keywords: Online Journalism, SEO, serch engines, search optimization.
  6. 6. 6 SUMÁRIO INTRODUÇÃO.................................................................................................7 1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA............................9 1.1 INTERNET E WEB.................................................................................9 1.2 MECANISMOS DE BUSCA.................................................................13 1.2.1 Funcionamento dos mecanismos de busca...................................17 1.3 O QUE É SEO?....................................................................................19 1.3.1 SEO on-page.................................................................................20 1.3.2 SEO off-page.................................................................................25 2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO.........................................................................................................27 2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE..............................27 2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE...............................29 2.3 MUDANÇAS NO FAZER JORNALÍSTICO..........................................36 3 MÉTODO E ANÁLISE................................................................................43 3.1 PROCEDIMENTOS METODOLÓGICOS............................................43 3.2 RESULTADOS: APLICAÇÃO DAS TÉCNICAS DE SEO NAS REDAÇÕES ONLINE..............................................................................................46 3.3 DISCUSSÃO DOS RESULTADOS......................................................51 CONSIDERAÇÕES FINAIS...........................................................................54 REFERÊNCIAS.............................................................................................55 ANEXO A – ENTREVISTA ESTRUTURADA COM PROFISSIONAIS..........59
  7. 7. 7 INTRODUÇÃO A World Wide Web se desenvolveu rapidamente e o número de páginas cresce substancialmente ano após ano. Nesse sentido, os mecanismos de busca surgiram como uma forma de organizar toda esta informação disponível na rede. O primeiro indexador de páginas surgiu em 1990 e se chamava Archie. Em 1999, um novo mecanismo de busca chamado Google (ainda em versão beta) se tornou amplamente conhecido, por utilizar um algoritmo de classificação inovador. Com o passar dos anos, o mercado de buscas foi crescendo e uma boa colocação nas páginas de resultados dos mecanismos de busca tornou-se cada vez mais cobiçada. O funcionamento dos mecanismos foi sendo aprimorado e seus algoritmos passaram a ser cada vez mais secretos e exatos, o que estimulou o surgimento da indústria de SEO, que consiste em um conjunto de técnicas e métodos para alcançar uma boa indexação nos mecanismos de busca. Atentas a esse movimento, equipes responsáveis por sites, inclusive sites de notícia, passaram a atentar mais para questões como a arquitetura de informação e a otimização de seu conteúdo. Nesse ponto, que entra o papel do jornalista. Quais as práticas das redações online brasileiras em relação ao Search Engine Optimization? É justamente esse questionamento que o presente trabalho busca responder. O objetivo geral desta pesquisa é levantar as experiências e práticas de jornalistas brasileiros em relação ao Search Engine Optimization. Já os objetivos específicos são conhecer a história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e verificar quais as práticas recomendáveis e o conhecimento necessário aos jornalistas quanto a esse assunto. Para dar conta dos objetivos do trabalho, a abordagem metodológica adotada baseou-se em uma revisão literária, apoiada pela realização de entrevista estruturada com quatro profissionais que atuam com Search Engine Optimization em sites de grandes grupos de comunicação. O primeiro capítulo apresenta “A Internet, a web e os mecanismos de busca”, em que se traz a evolução da internet e dos mecanismos de busca, a partir de dados históricos. O Search Engine Optimization, um dos motes principais deste estudo, também é apresentando, reunindo as principais técnicas utilizadas. Os
  8. 8. 8 principais autores utilizados neste capítulo são Castells (2003), Fragoso (2007) e Felipini (2010). O segundo capítulo apresenta o “Jornalismo Online”. Inicialmente, são levantados dados históricos e características dessa prática e, em um segundo momento, as mudanças que ocorreram tanto no perfil comportamental dos consumidores de notícias quanto nas rotinas produtivas dos jornalistas. Nesse capítulo, os principais autores utilizados são Palacios (2003), Quadros (2002), Pereira e Adghirni (2011) e Corrêa e Bertocchi (2012). No terceiro capítulo, apresenta-se os procedimentos metodológicos, as respostas da entrevista estruturada e uma análise dessas respostas de modo geral. Para finalizar, estabelece-se uma conexão dos resultados obtidos com a literatura consultada.
  9. 9. 9 1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA A fim de mapear as práticas de Search Engine Optimization no Jornalismo Online brasileiro, o foco deste primeiro capítulo será internet, mecanismos de busca e SEO. No primeiro item tratar-se-á do surgimento da internet e de sua evolução para a World Wide Web. No segundo item, entrarão em pauta os mecanismos de busca e a forma como eles foram sendo aperfeiçoados ao longo dos anos. Na sequência, será abordado o funcionamento dos mecanismos, oferecendo aos leitores o embasamento adequado para compreender a importância das técnicas de SEO para o Jornalismo Online, foco do capítulo seguinte. 1.1 INTERNET E WEB Arpanet era como se chamava a primeira rede de computadores, que entrou em funcionamento em 1° de setembro de 1969. Ela surgiu a partir de um trabalho de uma instituição de pesquisa do Departamento de Defesa dos Estados Unidos chamada ARPA (Advanced Research Projects Agency). O principal objetivo dessa instituição era “mobilizar recursos de pesquisa, particularmente do mundo universitário, com o objetivo de alcançar superioridade tecnológica militar em relação à União Soviética na esteira do lançamento do primeiro Sputnik em 1957” (CASTELLS, 2003, p. 13). O departamento da ARPA que esteve envolvido no desenvolvimento da Arpanet chamava-se IPTO (Information Processing Techniques Office) e visava ao estímulo da pesquisa em computação interativa. Para montar a rede, os pesquisadores utilizaram a tecnologia de “comutação por pacote”, desenvolvida independentemente por Paul Baran da Rand Corporation (centro de pesquisas californiano que trabalhava para o Pentágono à época) e por Donals Davies do British National Physical Laboratory. A Arpanet foi desenvolvida para “permitir aos vários centros de computadores e grupos de pesquisa que trabalhavam para a agência compartilhar on-line tempo de computação”, sendo que os primeiros nós da rede estavam na Universidade da Califórnia em Los Angeles, no SRI (Standford Research Intitute), na Universidade da Califórnia em Santa Barbara e
  10. 10. 10 na Universidade de Utah, segundo Castells (2003). Ainda de acordo com o autor, o passo seguinte da ARPA “foi tornar possível a conexão da Arpanet com outras redes de computadores, a começar pelas redes de comunicação que a ARPA estava administrando, a PRNET e a SATNET”. Foi no ano de 1973 que a arquitetura básica da Internet foi delineada, por meio de um artigo elaborado pelos cientistas da computação Robert Kahn (da ARPA) e Vint Cerf (da Universidade de Standford). Este artigo definia que, para estabelecer comunicação entre si, as redes de computadores necessitavam de protocolos de comunicação padronizados. Em 1978, Vint Cerf, Jon Postel e Steve Crocker, trabalhando na Universidade da Califórnia, dividiram o TCP (protocolo de controle de transmissão) em duas partes, acrescentando um protocolo intra-rede (IP), o que gerou o TCP/IP, o padrão segundo o qual a Internet continua operando até hoje (CASTELLS, 2003, p. 14-15). Dois anos após, em 1975, a Arpanet foi transferida para a DCA (Defense Communication Agency), que criou a Defense Data Network com o intuito de tornar a comunicação por computador disponível aos vários ramos das Forças Armadas. Já “em 1983, o Departamento de Defesa, preocupado com possíveis brechas na segurança, resolveu criar o MILNET, uma rede independente para usos militares específicos”. (CASTELLS, 2003, p.14). Depois disso, a Arpanet ganhou o nome de ARPA-INTERNET e passou a ser usada exclusivamente para fins de pesquisa. Em 1984, A NSF (National Science Foundation) montou sua própria rede de comunicação entre computadores, a NSFNET, que quatro anos depois passou a utilizar a infraestrutura física da rede da ARPA-INTERNET. E quando a Arpanet se tornou tecnologicamente obsoleta, o governo dos EUA confiou sua administração à NSF; a qual na sequência encaminhou a privatização da Internet. À época, “a maioria dos computadores nos EUA tinha capacidade de entrar em rede, o que lançou os alicerces para a difusão da interconexão de redes” (CASTELLS, 2003, p. 15). A NSFNET foi extinta em 1995, o que abriu caminho para a operação privada da Internet. E essa “rede global de redes de computadores” cresceu rapidamente, já que, no início da década de 1990, muitos provedores de serviços da Internet já possuíam suas próprias redes e estabeleciam suas portas de comunicação em bases comerciais.
  11. 11. 11 Além da contribuição da Arpanet, o formato atual da Internet foi resultado de uma tradição de base de formação de redes de computadores. Um dos fatores influentes foi o BBS (Bulletin Board Systems): um movimento que surgiu da interconexão de computadores pessoais no final da década de 1970. Em 1977, dois estudantes de Chicago, Ward Christensen e Randy Suess, escreveram um programa, que batizaram de MODEM, que permitia a transferência de arquivos entre seus computadores pessoais; em 1978 fizeram um outro, o Computer Bulletin Board System, que permitia aos computadores armazenar e transmitir mensagens (CASTELLS, 2003, p.16). Já em 1983, o programador Tom Jennings iniciou uma rede de BBS chamada de FIDONET, que é até hoje a rede de comunicação por computadores mais barata e acessível do mundo, por se basear em PCs e ligações por linhas telefônicas convencionais. Outra tendência decisiva para a formação de redes de computadores veio da comunidade dos usuários do UNIX, sistema operacional desenvolvido pelos Laboratórios Bell, liberado para as universidades em 1974. “O sistema logo se tornou a língua franca da maior parte dos departamentos de ciência da computação e os estudantes logo se tornaram peritos na sua manipulação” (CASTELLS, 2003, p.16). Com base no programa UUCP (UNIX-to-UNIX copy) da Bell, que permitia que computadores copiassem arquivos uns dos outros; em 1979, quatro estudantes da Carolina do Norte projetaram um programa para comunicação entre computadores UNIX. Uma versão aperfeiçoada desse programa foi distribuída gratuitamente numa conferência de usuários de UNIX em 1980. Isso permitiu a formação de redes de comunicação entre computadores – a Usenet News - fora do backbone (infraestrutura física) da Arpanet (CASTELLS, 2003, p.16). Em 1980, quando a Usenet News chegou ao departamento de ciência da computação da Universidade da Califórnia em Berkeley, um grupo de estudantes de pós-graduação empenhou-se em desenvolver uma ponte entre a Arpanet – que já possuía um nó na universidade – e a Usenet. “Dali em diante, a Usenet ficou vinculada à Arpanet, as duas tradições gradualmente se fundiram e várias redes de computadores passaram a poder se comunicar entre si” (CASTELLS, 2003, p. 1617). Dessa maneira, essas redes finalmente se congregaram na forma da Internet. No entanto, a difusão da Internet na sociedade em geral ocorreu somente após o desenvolvimento da World Wide Web. O projeto de um sistema global de
  12. 12. 12 hipertexto foi iniciado em 1989, por um grupo de pesquisadores chefiado por Tim Berners-Lee e Robert Cailliau, no CERN, o Laboratório Europeu para a Física de Partículas, localizado em Genebra. Berners-Lee “definiu e implementou o software que permitia obter e acrescentar informação de e para qualquer computador conectado através da Internet: HTTP, MTML e URI (mais tarde chamado URL)” (CASTELLS, 2003, p. 18). Em 1993, segundo Fragoso (2007), o CERN decidiu abrir mão do direito de propriedade dos códigos básicos do projeto, tornando a WWW um domínio público. Em meados da década de 1990, a Internet estava privatizada e dotada de uma arquitetura técnica aberta, que permitia a interconexão de todas as redes de computadores em qualquer lugar do mundo; a WWW podia então funcionar com software adequado, e vários navegadores de uso fácil estavam à disposição do público (CASTELLS, 2003, p. 19). No final de 1995, o primeiro ano de uso disseminado da World Wide Web, havia cerca de 16 milhões de usuários de redes de comunicação por computador no mundo (CASTELLS, 2003, p. 8). Em relação à Internet no Brasil, segundo Limeira (2003), até 1988 as universidade brasileiras se conectavam às redes internacionais de pesquisa por meio da rede BITNET (uma contração da expressão Because it’s Time Network) que era uma rede de correio eletrônico. Ainda segundo o autor, em 1989, o Ministério da Ciência e Tecnologia formou um grupo com representantes do CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico), da Finep (Financiadora de Estudos e Projetos), da FAPESP (Fundação de Amparo à Pesquisa do Estado de São Paulo), da Faperj (Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro) e da Fapergs (Fundação de Amparo à Pesquisa do Estado do Rio Grande do Sul) para discutir a interligasse as principais universidades, implantação de uma rede que órgãos governamentais e não- governamentais e instituições de pesquisa. O resultado foi o surgimento da RNP (Rede Nacional de Pesquisa) em setembro de 1989. O modelo de prestação de serviços de redes operado pela RNP foi concebido para dar suporte à introdução da tecnologia de rede Internet no país, bem como sua difusão e capilarização por meio do apoio à implantação de redes estaduais (LIMEIRA, 2003, p. 29). Em 1993, após montado o backbone (infraestrutura física) da rede, a RNP já atendia 11 estados brasileiros, com conexões em velocidade de 9,6 a 64 Kbps. Até
  13. 13. 13 1996, implantou-se a Fase II do projeto, com uma infraestrutura mais veloz que a anterior. Nessa época, o RNP deixou de ser um backbone restrito ao meio acadêmico, estendendo seus serviços de acesso a todos os setores da sociedade. Assim, “ofereceu um importante apoio para a consolidação da Internet comercial no Brasil, que teve início em maio de 1995” (LIMEIRA, 2003, p. 30). Dessa forma, tanto no Brasil, quanto em todo o mundo, a Web se desenvolveu rapidamente e o número de páginas indexáveis (acessíveis aos mecanismos de busca) foi aumentando substancialmente a cada ano. Para se ter uma idéia, em 1999, haviam em torno de 800 milhões de páginas indexáveis na web (LAWRENCE; GILES, 1999, apud FRAGOSO, 2007, p.2). No ano seguinte, mais de dois bilhões (MURRAY, 2000, apud FRAGOSO, 2007, p.2). E em janeiro de 2005, já eram pelo menos 11,5 bilhões de páginas (GULLI; SIGNORINI, 2005, apud FRAGOSO, 2007, p.2). Com isso, tornou-se necessária uma forma de organização dessas páginas para facilitar a pesquisa pelos usuários e, a partir dessa necessidade, surgiram os mecanismos de busca. 1.2 MECANISMOS DE BUSCA O primeiro indexador de páginas surgiu em 1990, antes mesmo da World Wide Web, e ele se chamava Archie. Ele “reunia informações de arquivos disponíveis em servidores FTP (File Transfer Protocol)1 anônimos e os mantinha atualizados checando os dados em intervalos de até 30 dias” (FRAGOSO, 2007, p. 3). Em 1992, foi lançado o Veronica, que era um banco de dados que reunia os menus dos servidores Gopher, permitindo a realização de buscas por tópico (palavra-chave) ao invés de por servidor (como era inerente ao sistema), segundo a autora. O Gopher é um protocolo de redes de computadores que foi desenhado para distribuir, procurar e acessar documentos na Internet; criado por Paul Lindner e Mark McCahill na Universidade de Minesota. As informações acessadas através do Gopher ficam localizadas em servidores apropriados nos quais roda um programa 1 Servidor que fornece, através de uma rede de computadores, um serviço de acesso para usuários a um disco rígido ou servidor de arquivos através do protocolo de transferência de arquivos.
  14. 14. 14 que as organiza por assunto e as disponibiliza organizadas em uma estrutura hierárquica na forma de menus (diretórios). No ano seguinte, foi criado o Jughead que introduziu a possibilidade de realizar buscas booleanas. “Em ciência da computação, booleano é um tipo de dado primitivo que possui dois valores, que podem ser considerados como 0 ou 1, verdadeiro ou falso”2. Desde o ano anterior, já estava também em operação o WAIS (Wide Area Information Server), que reunia características do Gopher e dos buscadores que nele operavam e havia sido desenvolvido por iniciativa conjunta de quatro empresas. “Com o WAIS, era possível realizar buscas em bases de dados remotas, cujos resultados eram organizados em ordem decrescente de frequência das palavras-chave” (FRAGOSO, 2007, p. 3). Em 1993, alguns meses após o lançamento do primeiro browser para Windows, o X Windows Mosaic, já surgiu o primeiro webrobot3: o World Wide Web Wanderer. O intuito inicial era mapear toda a Web, mas isto já era matematicamente impossível. Ainda no mesmo ano, surgiram mais três webrobots: JumpStation, WWW-Worm e RBSE. O Worm indexava os títulos e endereços das páginas, enquanto o JumpStation inovou ao arquivar também os cabeçalhos. Ambos apresentavam os resultados na ordem em que os encontravam. O RBSE foi o primeiro a implementar um sistema de ranqueamento baseado na relevância relativa à expressão utilizada para a busca (MAULDIN, 1997; WALL, 2006 apud FRAGOSO, 2007, p. 4). O primeiro indexador projetado especificamente para a Web surgiu também em 1993. Inspirado pelo Archie, o Aliweb contava com um banco de dados cujas informações eram fornecidas diretamente por webmasters4. “Isso permitia que o sistema arquivasse descrições das páginas, que eram alimentadas pelos próprios criadores, mas por outro lado tornava a qualidade e atualidade do banco de dados dependentes da boa vontade de terceiros” (FRAGOSO, 2007, p. 4-5). Já o primeiro diretório pesquisável foi o Galaxy. Ainda segundo Fragoso (2007), o Galaxy listava apenas URLs (Uniform Resource Locator) que tinham sido fornecidas diretamente, organizando os endereços em categorias e sub-categorias e permitindo que os usuários restringissem a busca a sub-áreas de sua base de dados, o que acelerava e tornava mais preciso o processo. 2 Disponível em http://pt.wikipedia.org/wiki/Booleano. Programa que percorre a web passando de um documento para outro através dos hiperlinks. 4 Profissionais responsáveis pelo webdesign e desenvolvimento de uma página na web. 3
  15. 15. 15 Já em 1994, surgiu o WebCrawler, “um bot capaz de associar o registro do conteúdo completo das páginas à funcionalidade do rastreamento automático”, por meio da indexação vetorial5. Depois do WebCrawler, outros sistemas de busca foram aperfeiçoando suas funcionalidades e abrangência. O Lycos surgiu em 1994 e ganhou destaque, pois organizava os resultados das buscas conforme a relevância, permitia consultas por prefixo e dava bônus por proximidade entre palavras, de acordo com Fragoso (2007). O peso do banco de dados era aliviado por meio da estratégia de não arquivar o conteúdo completo das páginas, mas apenas um resumo gerado automaticamente a partir das 100 palavras-chave mais frequentes em cada página, combinadas com as palavras do título, do cabeçalho e as 20 primeiras linhas ou os primeiros 10% do documento. Com o passar dos anos e o aumento constante do tráfego, os investidores começaram a se dar conta das possibilidades da publicidade online, interessando-se em incluir banners e pequenos anúncios nas páginas de entrada dos sites. Então, buscando intensificar o fluxo de público para atrair mais anunciantes, muitos sistemas de busca “assumiram o formato de portal, passando a oferecer uma variedade de serviços” (FRAGOSO, 2007, p. 6). Foi o caso do Yahoo!, que começou em 1994, como uma lista de sites favoritos elaborada por dois primeiranistas de doutorado da Universidade de Stanford. Nessa época, fazer listas de favoritos na Web era algo bastante comum, o diferencial do Yahoo! É que ele disponibilizava breves descrições das páginas. Com o aumento do número de indicações, a lista tornou-se pouco amigável e os autores criaram uma estrutura de árvore (categorias e sub-categorias), conferindo ao Yahoo! o perfil de um diretório. Para responder ao crescimento da popularidade da lista, adicionaram também uma ferramenta de busca e passaram a aceitar inscrições de websites que desejassem figurar em seu banco de dados. Com menos de um ano de funcionamento, a página do Yahoo! celebrou seu milionésimo acesso, com visitantes vindos de quase 100 mil endereços distintos (YAHOO! MEDIA RELATIONS, 2005 apud FRAGOSO, 2007, p. 6). Em 1995 surgiu o AltaVista, que era mais rápido que as outras ferramentas disponíveis na época, prometia aos webmasters atualizar as informações recebidas em, no máximo, 24 horas e permitia buscas “a partir de perguntas, buscas em newsgroups, buscas específicas por palavras associadas a imagens, títulos e outros 5 Na indexação vetorial, documentos em linguagem natural são representados por meio de vetores, ou seja, as palavras-chave (termos de busca) recebem características vetoriais. O sistema avalia a relevância dos documentos de acordo com sua relação espacial com as palavras-chave buscadas.
  16. 16. 16 campos do código HTML e buscas por inlinks” (FRAGOSO, 2007, p. 6). Possuía ainda um campo de dicas logo abaixo da área de busca, o que ajudou a aumentar a fidelidade à ferramenta. Rapidamente, os mecanismos de busca se tornaram os principais veículos para a publicidade online. Conforme Fragoso (2007), as alternativas eram as seguintes: inclusão paga, em que o webmaster pagava para garantir que seu site fosse incluído no banco de dados da ferramenta de busca ou diretório; a classificação paga, em que o buscador garantia que o site figuraria entre os primeiros resultados das buscas por uma ou várias palavras; e seleção paga (payper-click), em que o anunciante só paga quando o usuário clica no link para seu site. Já que foram surgindo dezenas de mecanismos de busca e cada um cobria porções diferentes da web; em 1995, surgiram as ferramentas de meta-busca, que permitiram buscar em vários sistemas de busca ao mesmo tempo. O ponto negativo era que elas desviavam o público das demais páginas, afastando delas os anunciantes. Em paralelo à manipulação dos resultados das buscas pela inserção de resultados pagos, surgiram também os spams: resultados na busca que nada tinham a ver com o que o usuário estava buscando. Para evitar isso, “os sistemas de busca desenvolviam estratégias de indexação e classificação cada vez mais sofisticadas” (FRAGOSO, 2007, p. 8). Àquela altura, a disputa pelo mercado de buscas parecia girar em torno do tamanho dos bancos de dados. Muitas das pequenas ferramentas foram compradas por “buscadores maiores, interessados tanto em aumentar ainda mais seus bancos de dados quanto, muitas vezes, em particularidades dos rastreadores e sistemas de classificação” (FRAGOSO, 2007, p. 8). Enquanto isso, no mundo acadêmico, estava em gestão um sistema de classificação que recolocava no centro da cena uma das características mais interessantes do Lycos: a “heurística de popularidade” (MAULDIN, 1997 apud FRAGOSO, 2007, p. 8). A estratégia foi aperfeiçoada no BackRub, projeto de doutorado de Larry Page e Sergey Brin na Universidade de Stanford, que pretendia melhorar a forma como os mecanismos de busca classificavam os resultados e reduzir ao máximo o tempo gasto pelos internautas para encontrar o que buscavam. Ele classificava os resultados de acordo com o número de back links que cada site recebia, assim a metodologia era baseada nas respostas que a própria Internet fornecia. O projeto cresceu rapidamente e foi renomeado Google.
  17. 17. 17 A princípio, Page e Brin não pareciam estar interessados em criar uma empresa em torno de seu novo buscador, tanto é que tentaram vendê-lo ainda em 1998, sem sucesso. Um ano mais tarde, o Google continuava em versão beta, mas já havia se tornado amplamente conhecido por utilizar um algoritmo de classificação inovador e não incluir apenas resultados pagos entre os resultados orgânicos. Outros pontos fortes do Google eram a velocidade das buscas e a simplicidade da interface (começando pela ausência de banners e outro material publicitário, o que levava a página inicial a carregar muito mais rápido que a dos outros sites de busca). Ao final de 2000, o Google começou a exibir alguns resultados pagos, mas, ao contrário da maioria das outras ferramentas, não os mesclou com os resultados orgânicos. Àquela altura, o Google já havia se estabelecido como o melhor sistema de buscas na mente do público (FRAGOSO, 2007, p. 9). Atualmente, o Google é o site de buscas líder do mercado, com cerca de 50 bilhões de buscas por mês no Google, em todo o mundo. “O Google tem 71% do mercado de buscas online nos Estados Unidos e 60% do mercado mundial, sendo que 97% de seu faturamento é originário dos anúncios através de links patrocinados” (FELIPINI, 2010, p. 7). Percebe-se assim, que os sites de busca começaram como catálogos de páginas no formato digital e evoluíram, passando a utilizar novas formas de classificação de páginas e organização de resultados. Para compreender melhor esta evolução, abordar-se-á a seguir o funcionamento dos mecanismos de busca. 1.2.1 Funcionamento dos mecanismos de busca Os primeiros mecanismos de busca eram catálogos de páginas na web, cujas informações eram incluídas por uma equipe de profissionais. Kendzerski (2005, p. 98) explana que, além da demora para que um site constasse no catálogo, como a organização das respostas era feita com base na ordem alfabética, muitas vezes os sites desejados ficavam longe do topo dos resultados. Depois vieram os spiders, softwares que vasculham a internet, colhendo dados das páginas e as anexando ao banco de dados dos mecanismos de busca. “Esses dados são fornecidos através da otimização do site (inserção de metatags e outras informações que são colocadas especialmente nas páginas por seus
  18. 18. 18 desenvolvedores)” (KENDZERSKI, 2005, p. 99). Essa varredura é feita inicialmente na primeira página do site e, conforme o robô encontra links para outras páginas, ele vai incluindo essas páginas na varredura. Uma vez que o robô varreu todo o site, ele copia os textos que encontrou para o banco de dados da ferramenta de busca. Com seus textos em mãos, os computadores da ferramenta de busca associam as palavras encontradas no texto a seu endereço (URL), e com as palavras encontradas no texto criam uma gigantesca biblioteca de palavras-chave (TORRES, 2009, p. 93). Na sequência, passou-se a utilizar taxonomia, para fornecer resultados restritos dentro da área de interesse do internauta. E surgiram também os metabuscadores: “sistemas que buscam as informações em outros mecanismos de busca, compilando os resultados obtidos” (KENDZERSKI, 2005, p. 101). Em 1998, o americano Bill Gross, fundador do GoTo.com, começou a oferecer resultados (de busca) pagos e leilão de palavras. “A empresa foi rebatizada de Overture em 2001 e depois adquirida pelo Yahoo! em 2004. Foi com base nesse modelo que o Google criou o Google Adwords e o conceito de links patrocinados” (TORRES, 2009, p. 302). Com isso, “a tela de resultados dos principais sites de busca passou a apresentar dois tipos de informação: o resultado orgânico ou gratuito com páginas classificadas por relevância e os anúncios pagos, chamados de Links Patrocinados” (FELIPINI, 2010, p. 7). Os links patrocinados funcionam da seguinte forma: quanto maior o lance oferecido, mais alta será a classificação do site, sendo que as palavras com maior procura exigirão também lances maiores. Atualmente, os principais sites de busca utilizam algoritmos que consideram vários critérios, cada um com um peso específico, para definir a importância de uma página e seu posicionamento nos resultados de busca. “Cada site de busca possui seu próprio algoritmo, principalmente no que se refere ao peso de cada variável, por esse motivo uma mesma página pode ter posicionamentos distintos em cada um deles” (FELIPINI, 2010, p. 11). Esses algoritmos são alterados esporadicamente e alguns mecanismos de busca já oferecem cursos (principalmente para empresas) em que explicitam cada um de seus critérios. Um algoritmo pode ser definido como uma sequência finita de passos (instruções) para resolver um determinado problema. Sempre que é desenvolvido um algoritmo, é estabelecido um padrão de comportamento que deverá ser seguido uma norma de execução de ações) para alcançar o resultado de um problema.
  19. 19. 19 Atualmente, os algoritmos tem sido utilizados também para personalizar o conteúdo disponível de acordo com as preferências de cada usuário. No entanto, essa utilização tem sido criticada por alguns estudiosos, como Eli Pariser no livro “O filtro invisível”. Na obra, o autor afirma que esse excesso de personalização tende a deixar os usuários “unidirecionais” e limitar seus pontos de vista por meio de um “filtro-bolha”, em que os algoritmos assumem o papel de curadores de informação, valorizando os tipos de informação em que o usuário mais clica e deixando de lado outros conteúdos que poderiam também interessar ao usuário, mesmo não sendo de sua preferência. E é ao estudo desses algoritmos e de sua utilização que se dedica a indústria de SEO (Search Engine Optimizaton): a otimização de sites e de seu conteúdo em busca de uma melhor colocação entre os resultados de busca (de forma orgânica). 1.3 O QUE É SEO? A preferência dos usuários pelos websites que constam entre os primeiros resultados de suas buscas estimulou o desenvolvimento da indústria de SEO (Search Engine Optimization). A SEO ou otimização para mecanismos de busca consiste em “um conjunto de técnicas, métodos e/ou estudos que visam melhorar o posicionamento das páginas no mecanismo de busca”6. “A SEO nasceu da simples observação de que estar listado entre os mais altos resultados no Google se traduz diretamente em dinheiro” (BATTELLE, 2006, p. 136). Em suma, o objetivo principal da SEO é angariar novos visitantes já que, com mais visitas, aumentam as chances de conversão. Logo, com um bom trabalho de SEO, é possível aumentar as vendas, o número de visualizações da página ou de assinantes de feeds, etc. Segundo Fábio Ricotta, criador do site MestreSeo (atual Agência Mestre), o termo foi usado pela primeira vez pela empresa MMG (Multimedia Marketing Group) de John Audette, cujo objetivo era aplicar métodos que fizessem com que um website conseguisse um posicionamento nos resultados de busca melhor que o dos concorrentes. Inicialmente, a indústria de SEO não tinha plena certeza de quais 6 Disponível em http://www.agenciamestre.com/seo/o-que-e-seo.
  20. 20. 20 seriam as técnicas legais e quais seriam ilegais, até por que mecanismos de busca como o Google sempre mantiveram seus algoritmos sob sigilo. Com isso, à época, muitas empresas que pagavam às indústrias de SEO para otimizar sua colocação entre os resultados de busca acabavam com os sites banidos do índice dos mecanismos de busca, por causa das práticas ilegais aplicadas. Já que as ferramentas de busca consistem em um elemento-chave no processo de localização de sites, é importante que o desenvolvedor de interface ou webdesigner garanta que o site tenha uma estrutura que facilite a varredura pelo mecanismo e que os conteúdos sejam escritos buscando melhorar o posicionamento do site nos resultados de busca. Outro ponto é a otimização do conteúdo, com o objetivo de levar o conteúdo certo para a busca correspondente, no intuito de seduzir e converter novos leitores. “Por mais que você anuncie na mídia online publicando banners em grandes portais, a grande maioria dos acessos começará mesmo pela busca de palavras-chave” (TORRES, 2009, p. 72). Segundo o site MestreSEO, as técnicas e métodos de SEO podem ser divididas em SEO on-page e SEO off-page, sobre as quais iremos abordar nos subitens a seguir. 1.3.1 SEO on-page SEO on-page é a otimização para mecanismos de busca realizada internamente no site. Os principais fatores de SEO on-page são: meta tags, heading tags, atributo alt, domínio, URLs amigáveis e conteúdo. As meta tags são linhas de código HTML que descrevem o conteúdo do site para os mecanismos de busca. As principais meta tags são: meta keywords, title tag e meta description. Cada uma delas possui regras específicas para serem elaboradas adequadamente, sobre as quais irá se tratar na sequência. Uma regra geral é que cada uma possui uma quantidade ideal de caracteres, sendo que a Agência Mestre disponibiliza em seu site, inclusive, um contador de caracteres7, ferramenta que muito pode auxiliar na elaboração das meta tags. 7 Disponível em: http://www.agenciamestre.com/ferramentas-seo/tamanho-do-texto.
  21. 21. 21 Para uma pessoa, a meta tag precisa ser chamativa, interessante, informativa, curiosa e com um toque de CALL-FOR-ACTION. Para um buscador, a meta tag precisa de uma dose de palavras-chave para que o algoritmo da ferramenta de busca classifique bem a página. O essencial no desenvolvimento de meta tags é achar o meio termo entre esses dois lados (MARCEL, 2009). Uma das primeiras ordens ao se iniciar a otimização de um site para as buscas é escolher as principais palavras-chave, pensando no que os usuários poderão buscar. A partir disso, pode-se escolher as palavras a serem evidenciadas em títulos, texto, descrição de imagens, domínio, etc. Conforme orienta Felipini (2010), pode-se incluir também o nome da empresa ou de produtos, palavras sinônimas ou utilizadas regionalmente. Se a palavra for homônima, ou seja, tiver sonoridade ou grafia igual à de outra palavra, o ideal é usá-la em conjunto com outra palavra mais explicativa. No caso da palavra “pet” por exemplo, ela pode significar tanto animais de estimação quanto garrafas de plástico reciclável. Quanta à frequência de uso das palavras-chave no texto é relevante destacar que os mecanismos de busca fazem uma contagem do número de vezes em que a palavra-chave apareceu e também do total de palavras em cada página. O primeiro número dividido pelo segundo fornecerá a frequência relativa daquela palavra. “Por exemplo, se a palavra apareceu 8 vezes e o total de palavras da página é 100, a frequência relativa é 8/100, o que equivale a 8%” (FELIPINI, 2010, p. 35). Cada mecanismo de busca possui um número ideal de frequência de cada palavra no texto. Felipini destaca que “se você incluir a palavra-chave num percetual entre 3% e 6% estará relativamente seguro. Muito acima disso, sua página corre o risco de ser penalizada” (FELIPINI, 2010, p. 35). O autor pontua ainda que o excesso de repetição das palavras-chave pode tornar a leitura do texto enfadonha. Também é possível verificar qual é o potencial de busca das palavras-chave escolhidas, através de uma ferramenta do Google, a Keyword Tool 8. Apesteguy (2013) explana que, após escolher as palavras-chave, pode-se verificar o número de resultados retornados pelo mecanismo de pesquisa, para se ter uma noção do grau de dificuldade que se terá para que a página fique bem posicionada nos resultados de busca. Segundo Alvarez (2012), nas redações online, outra ferramenta utilizada para avaliar a potencialidade de novas notícias é o Google Trends, disponível em http://www.google.com/trends/. Um pouco mais aprimorado do que o Google Trends, o Google Insights for Search oferece um serviço mais detalhado para os jornalistas 8 Disponível em https://adwords.google.com.br/keywordtool
  22. 22. 22 que querem encontrar palavras mais adequadas para regiões específicas ou até mesmo fazer comparações mais profundas de palavras para notícias nacionais. Combinar as ferramentas é também uma ótima opção. É possível usar a Keyword Tool, selecionar as melhores e levar até o Google Trens ou o Google Insights for Search e lá decidir qual é a que irá ter o melhor resultado (ALVAREZ, 2012, p. 16). As title tags ou títulos das páginas são as palavras que aparecem na barra de navegação do navegador quando se entra na página. Nos resultados de busca, os títulos das páginas aparecem como texto clicável que destina até a página correspondente do site. O ideal é que cada página de um site tenha seu próprio título e que este seja criado de forma chamativa e explicativa: informando ao usuário o que exatamente ele irá encontrar se clicar no link apresentado entre os resultados de busca. Conforme artigo de Vinicius Paes para o site MundoSEO9, este é o primeiro item examinado pelo mecanismo de busca, a fim de extrair o principal assunto sobre o qual o site e cada uma de suas páginas tratam. “Este título deve aparecer logo no início da página, antes de qualquer texto ou imagem. Além disso, deve ser grafado em destaque, com negrito e letras maiores do que as do restante do texto” (FELIPINI, 2010, p. 33). Em artigo para o site da Agência Mestre, Marcel (2007) aponta que é importante também não ultrapassar os 70 caracteres nas title tags, já que esta é a média que os mecanismos de busca exibem. Outras dicas são repetir o título em alguma parte do texto e manter um padrão nos títulos, para facilitar a identificação da página pelo usuário. A meta description, por sua vez, tem como finalidade: “descrever o conteúdo da página com precisão e sucintamente; servir de uma pequena propaganda para atrair tráfego orgânico e disponibilizar as palavras-chave para os buscadores” (MARCEL, 2007). Ela não aparece no browser do usuário quando ele carrega a página do site. Suas informações são voltadas principalmente para os mecanismos de busca. O ideal é que a meta description descreva o conteúdo da página em até 160 caracteres, de forma apelativa e informativa, preferencialmente citando as principais palavras-chaves. O site da Agência Mestre pontua, no entanto, que não é extremamente necessário que sempre se use as meta description tags. Quando se objetiva poucas palavras-chave, é interessante ter a meta description e que as palavras-chave estejam nela. Por outro lado, quando se 9 Disponível em: http://www.mundoseo.com.br/meta-tag/title-tags-conceitos-basicos.
  23. 23. 23 tem muito a mostrar/oferecer, ou seja, quando uma página tem muito conteúdo que trata de temas mais específicos em torno das palavras-chave principais, é bom deixar que o próprio motor de busca defina a relevância da página em relação aos termos usados na busca. Quer dizer, se eu tenho um vasto conteúdo de SEO sobre todas as categorias de SEO, às vezes é melhor deixar que o buscador decida qual a página do meu site melhor se adequa como reposta à busca do usuário (MARCEL, 2007). Já as meta keywords têm como finalidade indicar ao mecanismo de busca quais palavras-chave estão relacionadas à página. Segundo Felipini (2010, p. 40), “alguns editores costumam colocar aqui uma infinidade de palavras, muitas vezes, nem sequer relacionadas ao assunto, com o objetivo de tentar aparecer em um grande número de buscas”. Isto acaba diminuindo a relevância de cada palavrachave utilizada, além de dificultar a geração de tráfego para o que realmente interessa na página. Ainda de acordo com Felipini, devido a esse uso inadequado e à própria evolução dos mecanismos de busca (que já varrem automaticamente as páginas em busca das principais palavras), as meta keywords vêm perdendo a importância em detrimento de outros critérios mais sofisticados de SEO. As heading tags marcam no código HTML os pontos em destaque no conteúdo do site, para facilitar a identificação da ordem de relevância dos conteúdos para os mecanismos de busca. Estas tags vão de <h1> até <h6>. “Na tag <h1> deve constar um resumo do que o usuário vai encontrar no texto; a tag <h2> deve abordar um conteúdo sub-sequente do conteúdo da página; e as demais tags obedecem a mesma filosofia” (RIOLINO, 2008). Como os mecanismos de busca registram apenas links e textos, para que reconheçam o conteúdo de uma imagem, é preciso usar o atributo alt. Segundo Miranda (2009), este atributo é de vital importância para o ranqueamento do site no Google Imagens (serviço de busca de imagens do Google) e funciona também como texto âncora quando a imagem é usada como link. “A tag alt também é utilizada pelos bots do Google que juntamente com a tag title interpreta melhor o significado da imagem e sua relação com a página em questão” (MIRANDA, 2009). O ideal é escrever uma descrição curta e direta, sem preposições, com no máximo cinco palavras e apenas hífens entre elas. O atributo title complementa o alt, permitindo que usemos quantos caracteres forem necessários para descrever a imagem, mas o ideal é não escrever longos textos. O bom uso desses atributos já faz com que as imagens consigam ter um
  24. 24. 24 melhor posicionamento em mecanismo de busca de imagem, como o Google Images por exemplo. Muitos acessos a veículos online chegam através de imagens bem rankeadas. O jornalista deve ter cuidado com a sua imagem desde a hora em que a salva em seu computador para depois fazer upload no publicador. O nome da imagem pode ser crucial na hora de um buscador indexar a sua imagem (ALVAREZ, 2011, p. 21). Quanto ao domínio principal do site, ele deve descrever, sempre que possível, o conteúdo do site de maneira sucinta. As páginas secundárias do site também devem ter URLs amigáveis, ou seja, endereços que descrevam de forma objetiva e exata o conteúdo da página. Essa é uma técnica que contribui muito para um bom posicionamento do site para as palavras-chave utilizadas. “Isto ocorre porque os sistemas de busca dão um peso importante à existência da palavra-chave no endereço do site” (FELIPINI, 2010, p. 32). Domínios com correspondência exata com palavras-chave e pesquisas geralmente não são tão fáceis de encontrar, pois a probabilidade de já terem um dono é muito grande. Nesse caso, procure verificar se ele não está expirado ou se não está à venda. URL - Se uma das principais palavras-chaves consta já na URL do site, esta já é uma grande vantagem (LIMA, 2009). O conteúdo de um site influencia na percepção que os visitantes têm do mesmo e também estimula que outros sites insiram links de saída direcionando para este em questão. “Às vezes, um bom artigo com conteúdo relacionado ao seu site pode parar no topo dos sites de busca, sem nenhuma ação direta de sua parte” (FELIPINI, 2010, p. 62). Por outro lado, se um site está bem colocado nos resultados de busca, atraindo vários usuários, mas estes se sentirem frustrados ao acessar por encontrar um conteúdo pouco relevante, “a insatisfação dos usuários resultaria em uma baixa performance do site, além de se refletir negativamente na avaliação do PageRank” (FELIPINI, 2010, p. 63). Marcel (2009) dá algumas dicas rápidas para garantir qualidade ao conteúdo: deve-se valorizar os dois primeiros parágrafos, indo direto ao ponto; escrever parágrafos curtos envoltos por espaço vazio (espaço entre os parágrafos); usar imagens de qualidade e que complementem o texto; usar listas para destacar pontos importantes; usar subtítulos quando o texto for longo para tornar a leitura mais dinâmica; usar negrito e itálico; citar referências e trazer outros links. Uma dica importante e já notavelmente utilizada por muitos blogs é colocar as
  25. 25. 25 principais palavras-chave no texto em negrito, para demonstrar ao buscador que estas têm maior importância em relação ao restante do texto. O ideal, segundo Felipini, é incluir conteúdo exclusivo, “não encontrado em qualquer canto da Internet; e que, se for comercial, não seja apelativo ou subestime a inteligência do potencial comprador” (FELIPINI, 2010, p. 64). Um blog, por exemplo, pode ser uma forma interessante de ampliar indiretamente o conteúdo do site, por meio de uma comunicação mais informal e indireta. “Os links direcionados para o site principal, além de encaminhar clientes potenciais, agregarão pontos” (FELIPINI, 2010, p. 65). Pode-se também convidar especialistas ou pessoas com conhecimento relacionado ao tema do site para escrever artigos, sugere o autor. 1.3.2 SEO off-page SEO off-page é a otimização para mecanismo de busca que ocorre por meio de outros sites, que acabam gerando acesso e elevando a qualidade da página perante a avaliação dos mecanismos de busca. Os principais fatores off-page em SEO são número e qualidade de links externos, texto âncora dos links externos e idade do domínio. Felipini (2010) explica que quanto mais links externos de qualidade uma página tiver, melhor esta será classificada nos resultados de busca. O Google utiliza o sistema de classificação PageRank. Este é também “o nome dado ao valor numérico alcançado por cada página e que, na comparação com outras, vai definir a ordem de classificação de cada uma no resultado da busca” (FELIPINI, 2010, p. 49). A pontuação depende da quantidade de links e da quantidade de pontos que a página emitente pode distribuir por meio de seus links. O Google não divulga a fórmula matemática que utiliza, mas se sabe que a fórmula considera majoritariamente os seguintes fatores: “links de entrada (links de outras páginas apontado para sua página), links de saída (links em sua página apontando para páginas externas) e links internos (links entre sua página e outras sob o mesmo domínio)” (FELIPINI, 2010, p. 51). Os links de entrada devem vir de sites que tem alguma relação com o conteúdo do site, para gerar tráfego mais interessante, que pode converter em
  26. 26. 26 vendas ou fidelizar público, no caso de um site de notícias por exemplo. Quanto aos links de saída, é importante que a página de origem não tenha uma enorme quantidade de links de saída, pois assim “o valor do link direcionado para cada página tende a ser menor” (FELIPINI, 2010, p. 52). Link Building “é o conjunto de técnicas de SEO e otimização de sites responsável pela arquitetura interna de links de um site e pela conquista de links externos”. (MARCEL, 2008). As redes sociais, por exemplo, podem ser usadas na busca de linkbuilding. Quando as pessoas compartilham a sua notícia e mandam o link para a sua URL, ela ganha relevância e isso é positivo para SEO. O botão de +1 do Google também é um grande aliado. Verifique se no seu site de notícias online ou portal, os botões de content share e de +1 estão ativos. Isso pode fazer diferença na hora do posicionamento de sua notícia (ALVAREZ, 2011, p. 19). Em relação aos links internos, sabe-se que as páginas dentro de um site que recebem uma maior quantidade de links, como geralmente é o caso da home page, ficam com uma pontuação maior (no PageRank) do que aquelas que recebem poucos. Um aspecto interessante da otimização de links internos é que ele acarreta um duplo benefício: além de melhorar o posicionamento das páginas mais importantes, indica ao usuário do site o melhor caminho a seguir, melhorando a usabilidade e a taxa de conversão (FELIPINI, 2010, p. 55). O link pode ser dividido em duas partes: a URL linkada e o texto descritivo. “O texto descritivo é chamado também de texto âncora e esta descrição é quem faz um site posicionar-se bem para uma determinada palavra-chave” (RICOTTA, 2008). Quanto à idade do domínio, quanto mais antigo, melhor deve ser sua colocação nos resultados de busca, desde que ele continue sendo alimentado com conteúdo e atualizado. Isto por que hoje em dia a criação de domínios cresce vertiginosamente “e estamos cercados de domínios com conteúdo duplicado, spam, páginas com vírus e voltadas a propaganda extensiva” (RICOTTA, 2007). Assim, a idade do domínio acaba por contribuir com sua credibilidade diante dos mecanismos de busca.
  27. 27. 27 2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO Pesquisar o jornalismo na internet não é uma questão de modismo, é uma necessidade. Afinal, a internet foi o último e o mais sensacional meio de comunicação do Século XX e segue sua carreira na era da Revolução Digital (QUADROS, 2002, p. 1). Depois de abordarmos o surgimento da Internet, os mecanismos de busca e as práticas de Search Engine Optimization, abordar-se-á a atuação dos jornalistas na web, para na sequência avaliar como estes profissionais estão utilizando o SEO, na prática, para gerar tráfego aos sites de notícia. Abordar-se-á inicialmente as principais características do Jornalismo Online. Foram reunidas informações históricas, tratando dos primórdios do Jornalismo Online no mundo e, especificamente, no Brasil. Na sequência, entram em foco algumas das mudanças no fazer jornalístico após o surgimento da Internet e a presença dos jornais impressos na web; fatos que modificaram a forma de consumir notícias, algumas rotinas produtivas e também o perfil profissional das redações online. Esta reflexão será a tônica para introduzir, no terceiro capítulo, o relato de três profissionais da área sobre a importância que os sites de notícia estão dando às técnicas de SEO para alavancar seus acessos e buscar se tornar referência online. 2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE Para Luciano Miranda (2004, p. 11), o Jornalismo Online “é um meio de comunicação autônomo – e ao mesmo tempo integrado – que vem a ser somado ao tripé tradicional da imprensa, rádio e televisão”. Outras nomenclaturas também são utilizadas para designar este tipo de prática jornalística: Ciberjornalismo, Jornalismo eletrônico, Jornalismo online, Jornalismo digital, Jornalismo hipertextual. Entretanto, no momento, não será estabelecida a discussão sobre as especificidades e adequações destas nomenclaturas. Segundo estudos coordenados pelos professores Marcos Palacios e Beatriz Ribas por meio da Oficina de Jornalismo Digital da Faculdade de Comunicação da
  28. 28. 28 UFBA (Universidade Federal da Bahia), entre as principais características do Jornalismo Online estão: - Hipertextualidade: possibilidade de interconectar textos, sites, arquivos, por meio de links, fazendo com que o internauta possa acessar informações contextualizadas e mais aprofundadas, já que os links podem ter conteúdo multimídia ou dados de material mais antigo; - Multimidialidade ou convergência: convergência das mídias convencionais (texto, imagem e som) na narração do fato jornalístico. “A convergência torna-se possível em função do processo de digitalização da informação e sua posterior circulação e/ou disponibilização em múltiplas plataformas e suportes, numa situação de agregação e complementaridade” (PALACIOS et al, 2003, p. 3); - Interatividade: capacidade de fazer com que o leitor/usuário sinta-se mais diretamente parte do processo jornalístico. “A interatividade busca a inclusão do usuário/leitor como participante do processo jornalístico através de troca de e-mails (leitor/jornalista), da participação com comentários, enquetes e opinião, discussão em fórum e chats, e da navegação livre e seletiva de conteúdos” (TOLDO E GONÇALVES, 2008); - Personalização/customização de conteúdo: consiste na opção oferecida ao usuário para configurar os produtos jornalísticos de acordo com os seus interesses individuais. Há sites noticiosos que permitem a pré-seleção dos assuntos, bem como a sua hierarquização e escolha de formato de apresentação visual. “Assim, quando o site é acessado, a página de abertura é carregada na máquina do usuário atendendo a padrões previamente estabelecidos, de sua preferência” (PALACIOS et al, 2003, p. 4); - Memória: há na Web maior possibilidade de acumulação de informações do que em outras mídias. O volume de informação produzida e disponível ao usuário e ao produtor da notícia cresce exponencialmente, o que produz efeitos na produção e na recepção da informação jornalística. Na Web, a memória torna-se coletiva, através do processo de hiperligação entre os diversos nós que a compõem. “A memória no Jornalismo na Web pode ser recuperada tanto pelo produtor da informação, quanto pelo usuário, através de arquivos online providos com motores de busca (search engines) que permitem múltiplos cruzamentos de palavras-chaves e datas (indexação)” (PALACIOS et al, 2003, p. 8);
  29. 29. 29 - Atualização contínua ou instantaneidade: agilidade na produção e disponibilização de conteúdo na Internet. O material pode ser atualizado constantemente, diferentemente, por exemplo, da mídia impressa. Essas características foram surgindo ao longo do tempo, diferenciando cada vez mais o Jornalismo Online dos demais tipos de Jornalismo Impresso. E para entender essa transição e a entrada dos grandes grupos de comunicação na Web, será traçado a seguir um breve histórico do Jornalismo Online. 2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE Antes da World Wide Web, a rede já era utilizada para a divulgação de informações jornalísticas, porém os serviços oferecidos eram direcionados para públicos específicos e funcionavam por meio da distribuição de e-mails, boletins disponibilizados através do sistema Gopher (que possibilitava o acesso a informações mantidas em diversos computadores em uma rede) ou de recursos semelhantes. “A Internet passa a ser utilizada, de forma mais expressiva, para atender finalidades jornalísticas, a partir de sua utilização comercial, que se dá com o desenvolvimento da Web no início dos anos 90” (PALACIOS et al, 2001, p. 2). Os estudos do professor John Pavlick, da Universidade de Columbia, classificam o Jornalismo Online em três estágios: “o 1º seria apenas a transposição da versão impressa para a Internet, o 2º esta transposição e mais alguns produtos diferenciados do jornal de papel e o 3º um produto totalmente exclusivo para a internet” (QUADROS, 2002, p. 2). Para tratar mais detalhadamente acerca das mudanças ocorridas no Jornalismo Online, relata-se na sequência um breve histórico do Jornalismo Online. O boom dos diários digitais ocorreu entre 1995 e 1996. À época, empresários da comunicação nos Estados Unidos vislumbraram, nesta oportunidade de oferecer um diário de fácil acesso ao usuário, uma nova forma de obter lucros. Experiências no laboratório de design coordenado pelo jornalista e designer Roger Fidler deram origem ao flat panel, que pretendia ser o “protótipo do diário do futuro”. Esses estudos “foram considerados no momento de criar as páginas web do The San Jose
  30. 30. 30 Mercury Center, que possuía desde 1993 uma versão eletrônica distribuída pela companhia America On line por meio de uma rede própria” (QUADROS, 2002, p. 3). De acordo com Quadros (2002), os primeiros jornais que se notabilizaram na Internet foram o The San Jose Mercury Center, criado em 1995, e o The NandO Times, criado em 1994 pela empresa McClactchy Newspaper Inc., responsável pela edição do diário impresso News & Observer. No boom da Internet, nos Estados Unidos, na Espanha e no Brasil, a maioria das redações online era formada por jovens profissionais, com um bom currículo acadêmico, mas com pouca experiência na área. O editor do The NandO Times, Seth Efron, afirmava que era conveniente contratar jornalistas menos experientes para trabalhar nas redações online, porque "eles não têm noções preconcebidas do Jornalismo" (IANZITO, 1996 apud QUADROS, 2002, p. 4). A redação digital do The San Jose Mercury Center contava com profissionais empenhados em construir conteúdo e linguagem específicos para a Internet. Em 1996, fazia parte do quadro de jornalistas do The San Jose Mercury Center, o jovem Mark Hull. Com apenas 21 anos, ele foi responsável por uma reportagem distribuída na rede sobre como o lucro das vendas da cocaína a certos bandos de Los Angeles iam parar em um fundo da CIA, agência norte-americana de inteligência (QUADROS, 2002, p. 3-4). Em 1993, o MIT (Instituto Tecnológico de Massachusetts) nos Estados Unidos deu início ao News in the Future, um projeto de pesquisa, com o apoio de empresas jornalísticas de todo o mundo, para estudar “novas formas de criar jornais mais interativos, úteis e de fácil acesso” (QUADROS, 2002, p. 4). A partir deste projeto, os pesquisadores criaram o diário digital Fiswrap, em que procuravam utilizar todos os recursos interativos da hipermídia possíveis, com o intuito de se tornar referência para os jornais eletrônicos. As criações do diretor do MIT, Nicholas Negroponte, serviram de modelo para muitos jornais. Ele criou, por exemplo, o jornal personalizado Daily Me, que oferecia serviços dirigidos para cada leitor. Apesar de nunca ter obtido uma circulação massiva, o Daily Me contribuiu significativamente para os estudos desenvolvidos na área e reforçou a necessidade de preparar jornalistas para a Internet: "Ser digital supõe o surgimento de um conteúdo totalmente novo, de novos profissionais (...)" (NEGROPONTE, 1994 apud QUADROS, 2002, p. 5).
  31. 31. 31 Nos Estados Unidos, diversas empresas norte-americanas cooperaram para o desenvolvimento dos jornais online. Em 1995, foi criada nos Estados Unidos a companhia New Century Network, uma associação de oito editoras de jornais: Knight-Ridder, Cox Newspaper, Gannett Co. Inc., Hearst Corporation, The Washington, Post Corporation, Times Mirror Co., Tribune Co. e Advance Publication Inc. "No total, estas oito empresas publicam [referente ao período de 1995] 185 diários, com uma tiragem conjunta de mais de 20 milhões de exemplares, o que representa um terço da indústria de diários nos Estados Unidos" (GARNEAU, 1994 apud QUADROS, 2002, p. 5). Estes periódicos serviram de referência para jornais que chegavam à rede ou que pretendiam alcançar um estágio mais avançado na World Wide Web; no entanto, a maioria deles reproduzia os conteúdos e o design das versões impressas. A editora do The New York Times Eletronic Media Company, Elizabeth Osder, por exemplo, sempre demonstrou a preocupação em atender as exigências da internet e, principalmente, de seu público: “Agora nosso desafio é construir um novo conteúdo para um novo meio: o mundo da grande teia” (OSDER, 1997 apud QUADROS, 2002, p. 6). Elizabeth acreditava também que, para as próximas gerações dos jornais digitais, seriam necessários editores preparados para o desenvolvimento de novos produtos que aproveitassem as vantagens do hipertexto. O The Washington Post.com, criado pela empresa Digital Ink Co., foi desenvolvido com a intenção de oferecer um produto distinto da versão impressa do The Washington Post, sendo considerado, em 1995, "um dos mais completos exemplos do novo enfoque do jornalismo na internet" (McADAMS, 1995 apud QUADROS, 2002, p. 6). À época, os jornalistas estavam utilizando novas ferramentas e começando a desenvolver a linguagem e os conceitos apropriados para a Web. As atualizações eram feitas a cada seis horas na maioria das redações online, o que resultava em uma carga de trabalho mais desgastante para os profissionais em relação àqueles que atuavam no jornal impresso. Em 1996, o produtor online da Digital Ink, Bill Frischling, relatou que “começava todos os dias às seis horas da manhã e só concluía seu trabalho às seis da tarde” (QUADROS, 2002, p. 6). Na Espanha, o primeiro diário digital foi o Boletim Oficial do Estado, criado em 1994, segundo Quadros (2002). O Boletim Oficial do Estado possuía o mesmo conteúdo da versão impressa, mas podia ser consultado antes de sua distribuição
  32. 32. 32 em papel. No ano seguinte, diversas empresas de comunicação espanholas já tinham uma versão eletrônica de seu jornal impresso. Em 1° de abril de 1995, surgiu o diário digital Avui, depois foram lançados o El Periódico de Catalunya e o La Vanguardia. Inicialmente, era apresentado o mesmo conteúdo das versões impressas, mas pouco a pouco, passou-se a oferecer serviços mais interativos. Luis Ángel Fernández Hermana, editor da revista científica Enredando e colunista do El Periódico de Catalunya, ressaltou as responsabilidades das empresas e dos jornalistas diante da Internet. Os meios deverão passar por um doloroso processo de reconhecer que o mundo não é só aquilo que eles publicam, mas também muitas outras coisas que estão sendo disponibilizadas na Rede. Isto será um enorme desafio para os meios (...) E os jornalistas receberão a informação da própria internet para realizar o seu trabalho, mas também deverão disponibilizar informação para a Rede. É fundamental a troca de informações (FUENTES I PUJOL, 1997 apud QUADROS, 2002, p. 7). Ainda em 1995, a grande imprensa de Madri começou a criar suas versões online. O ABC, jornal de circulação nacional, disponibilizou sua versão eletrônica em 19 de setembro de 1995 e dois anos depois, contava com quatro profissionais responsáveis exclusivamente pela sua produção. “Eles começavam a trabalhar às onze da noite e quase sempre saiam da redação às seis horas da manhã” (QUADROS, 2002, p. 8). Segundo Avelino Buendía, um dos responsáveis pelo ABC eletrônico, a idéia naquele período era ampliar o número de jornalistas para oferecer outros serviços e atualizações mais constantes. "Como não há muitos profissionais na redação digital do ABC, é impossível atualizar as notícias durante 24 horas do dia, como costumam fazer alguns diários eletrônicos em diversas partes do mundo" (BUENDÍA, 1997 apud QUADROS, 2002, p. 8). Os jornalistas aproveitavam todo o conteúdo do diário impresso; mas essa não era uma tarefa fácil, porque eles não tinham encontrado um programa que atendesse a todas as suas necessidades: "Nós tínhamos dificuldades para acrescentar alguma notícia ou corrigir outra, porque o nosso servidor ficava em Bilbao. Os problemas de transmissão eram terríveis” (BUENDÍA, 1997 apud QUADROS, 2002, p. 8). Em maio de 1995, o diário digital El Mundo foi para a Web. A versão eletrônica nasceu do esforço do jornalista Mario Tascón, professor da Universidade de Navarra e atual diretor do El Mundo online, que na época era chefe da seção de infográficos do jornal impresso. “Quando o produto despertou o interesse do público
  33. 33. 33 e chamou a atenção dos empresários do jornal, Mário Tascón pôde contar com o apoio de um redator que, no início de sua carreira, era responsável pela base de dados da versão impressa do El Mundo” (QUADROS, 2002, p. 8-9). Inicialmente, os leitores tinham acesso apenas ao suplemento Campus, dirigido aos jovens; mas com o tempo outras seções do jornal impresso foram disponibilizadas na rede. Em 1996, mais dois jornalistas, oriundos da Universidade de Navarra, foram contratados para a cobertura das eleições gerais. Em 1997, a redação do então chamado El Mundo del Siglo XXI já contava com 10 profissionais e o diário digital começou a apresentar resumos das principais notícias de várias seções da versão impressa: Nacional, Internacional, Economia, Esportes e Ciências. A primeira emissão do El País Digital foi em 4 de maio de 1996, coincidindo com o 20º aniversário de sua versão impressa. No entanto, antes de ser disponibilizado, sua equipe trabalhou em seu projeto durante dez meses. Em meados de 1997, a equipe era formada por dez redatores e três profissionais técnicos. "Aqui utilizamos praticamente todo o texto da sua versão impressa. Nossa responsabilidade é adequar os conteúdos para o diário digital, explorando os recursos oferecidos pelo hipertexto e outras ferramentas. Elaboramos um breve resumo da notícia, uma chamada para a reportagem etc", afirmou Lucía Anguito Mayo, uma das redatoras do El País Digital, em entrevista à pesquisadora Claudia de Quadros. Na época, o horário do trabalho era a principal queixa dos jornalistas dos diários eletrônicos em todo o mundo, assim como os do El País Digital: Como necessitamos trabalhar com o jornal impresso praticamente concluído, porque utilizamos os textos do diário que estará nas bancas no dia seguinte, iniciamos a nossa jornada às oito horas da noite. O fechamento é, normalmente, às quatro da manhã, porque o jornal digital demora uma hora para ser comprimido e transmitido para a Rede (MAYO, 1997 apud QUADROS, 2002, p. 10). Na América Latina, o pioneiro no Jornalismo Online foi o Grupo Estado, por meio da Agência Estado/Broadcast. Em junho de 1993 foi iniciado o projeto Estadão Multimídia e em agosto do mesmo ano, o Grupo Estado começou a explorar novas ferramentas, como o fax e os boletins eletrônicos em formato BBS (Bulletin Board System). Em março de 1995, o jornal digital do Estadão, então denominado NetEstado, foi estruturado. A arquitetura das primeiras páginas web foi planejada em julho, mas só foi disponibilizada em 8 de dezembro de 1995. “Por isso, o Jornal do Brasil é considerado o primeiro diário digital do País a fazer cobertura completa no
  34. 34. 34 espaço virtual” (MOHERDAUL, 2000 apud QUADROS, 2002, p. 12). O Jornal do Brasil foi disponibilizado integralmente na rede em 28 de maio de 1995. No entanto, apesar do Jornal do Brasil ser considerado o pioneiro, as conquistas e os esforços dos jornalistas da versão digital de O Estado de São Paulo contribuíram de forma mais significativa para o desenvolvimento do Jornalismo Online. O primeiro site do jornal O Estado de São Paulo foi denominado Panorama e continha uma revista feminina intitulada Mulher com artigos exclusivos. "Acredito que foi uma das primeiras publicações eletrônicas do Brasil a tratar de temas predominantemente femininos", destacou Luciano Martins Costa, ex-diretor e criador da versão digital de O Estado de São Paulo, em entrevista à pesquisadora Claudia de Quadros. Na fase inicial, o projeto do NetEstado contava com dois jornalistas e uma técnica em informática, mas quando o diário entrou na rede, já havia quatro jornalistas, um coordenador e dois técnicos. “Em meados de 1997, a redação digital era formada por sete jornalistas e cinco técnicos. Três redatores produziam as últimas notícias, que podiam ser acessadas por meio de links para a Agência do Estado” (QUADROS, 2002, p.12). Em 2002, Luiz Octavio Lima, o ex-editor especial do NetEstado, assumiu a coordenação da versão online do Estadão. A equipe era composta por “dois editores especiais, três redatoras, três analistas de sistemas, um assistente e um auxiliar de produção gráfica, além dos técnicos de informática” (QUADROS, 2002, p.12). A arquitetura Web sofreu diversas alterações desde a implementação. No final de 1997, era coordenada pelo designer Mario Garcia, conhecido pelo trabalho no desenvolvimento de novas interfaces para sites jornalísticos nos Estados Unidos e Europa. Ainda segundo Quadros (2002), a evolução do diário digital de O Estado de São Paulo ainda está relacionada com o convênio mantido com o já citado grupo News in the Future, do MIT. Segundo Luciano Costa, todos os sites do Grupo Estado procuraram, desde a assinatura do convênio, utilizar os informes do MediaLab para obter uma orientação sobre as possíveis mudanças, evitando assim muitos investimentos em recursos tecnológicos com pouco futuro (QUADROS, 2002, p.13). Um fato curioso na história do Jornalismo Online brasileiro é que, no final de 1997, jornalistaS fumantes não podiam fazer parte da redação online de O Estado de São Paulo.
  35. 35. 35 Os técnicos costumavam dizer que a fumaça poderia afetar os equipamentos informáticos e os editores de O Estado de São Paulo entendiam que a dependência ao cigarro significava diversas saídas da redação e, consequentemente, resultava em uma baixa produção (QUADROS, 2002, p.13). Regianne Bochichi, uma das produtoras da versão digital de O Estado de São Paulo, entrou para a equipe do Estado Multimídia em 1995, depois de ter atuado em rádio e televisão. Em entrevista à pesquisadora Claudia de Quadros, afirmou que encontrou na redação online mais estímulo para sua criatividade. O trabalho não está limitado a uma função. É possível acompanhar todo o processo de edição, proporcionando uma ampla visão dos fatos do dia. Além disso, é possível utilizar recursos, como o som e a imagem em movimento, que são impossíveis na versão impressa (QUADROS, 2002, p.13). Em março de 1995, o Caderno Informática Etc. do jornal O Globo foi lançado na web. Em 29 de julho de 1996, surgiu o diário digital O Globo On-line, um dos produtos do portal Globo.com. Ao final do mesmo ano, foi formada uma equipe exclusiva (com jornalistas, técnicos e especialistas em marketing) para a versão digital de O Globo, com sede no Rio de Janeiro. O superintendente Henrique Caban justificava o atraso de O Globo na Internet como uma estratégia: "Não queremos colocar na Rede nada que não esteja pronto. Não basta colocar o jornal impresso no computador. Vamos explorar o que a internet pode oferecer, como a atualização online durante todo o dia” (SIQUEIRA, 1996 apud QUADROS, 2002, p.13-14). No final de 1997, oito jornalistas produziam conteúdo em tempo real e seis enriqueciam estas notícias. Em 2002, a redação digital era coordenada pela editora-chefe Joyce Jane Corrêa Meyer, e “o Globo On-Line contava com um editor-executivo, um gerente comercial, três editores, dois editores de capa, dois de ambientes especiais, um de interatividade, um editor de criação que comandava um equipe de quatro profissionais e 11 repórteres, além da equipe responsável pela gestão tecnológica” (QUADROS, 2002, p. 14). Voltando à perspectiva global, o que se percebe, nos últimos anos, é uma queda nas receitas das mídias convencionais pela redução no número de leitores, pela falta de credibilidade e pela migração da publicidade para a web, de acordo com Pereira e Adghirni (2011). Em 2009, segundo declarações do executivo-chefe de um dos maiores grupos de jornais dos Estados Unidos, 19 dos 50 maiores jornais
  36. 36. 36 daquele país estavam perdendo dinheiro e esse número cresceria ainda mais nos anos seguintes, conforme Weaver (2009) apud Pereira e Adghirni (2011). Os jornalistas também estão sendo ameaçados. Em 2007, redações norte-americanas já haviam demitido cerca de 2.400 jornalistas, o que representa uma redução de 4,4% com relação ao ano anterior, segundo dados apresentados em 2008 pela American Society for Newspapers Editors, número que provavelmente se agravaria no ano seguinte por conta da crise financeira que atingiu aquele país, segundo Mosco (2009) apud Pereira e Adghirni (2011). Ao mesmo tempo, autores como Russel (2009) afirmam que a crise nos jornais impressos contrastaria com o crescimento de publicações na Internet e a explosão das informações disponíveis ao público: “A quantidade de novos materiais produzidos a cada dia, o acesso a esse material e as variedades na forma e no conteúdo, a participação [do público] na produção e disseminação disso – tudo isso está explodindo” (RUSSEL, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 3). Todos estes avanços e adaptações do Jornalismo Online, indubitavelmente, tiveram consequências, tanto na forma de receber a notícia quanto na forma de produzi-la. Estas mudanças comportamentais dos receptores, nas rotinas produtivas e no perfil profissional dos jornalistas serão explanadas na sequência. 2.3 MUDANÇAS NO FAZER JORNALÍSTICO Em função do desenvolvimento da Internet, chegou a ser cogitado o desaparecimento do Jornalismo convencional (ou pelo menos dos jornalistas enquanto intermediários). No entanto, com o passar do tempo, pesquisadores da área concluíram que o surgimento de novos formatos midiáticos não pode ser considerado “um processo evolucionário linear, de superação de suportes anteriores por suportes novos, mas como uma articulação complexa e dinâmica de diversos formatos jornalísticos, em diversos suportes, em convivência (e complementação)” (PALACIOS, 2003, p. 6). As mudanças socioeconômicas e inovações tecnológicas têm provocado profundas alterações nos processos de produção e apresentação da notícia. Pereira e Adghirni (2011) afirmam que, inclusive, alguns formatos canônicos do texto
  37. 37. 37 jornalístico – como o lead e a pirâmide invertida - bem como os critérios de noticiabilidade foram se modificando nesse novo cenário. “Ao mesmo tempo, novas rotinas produtivas e novos formatos para o conteúdo jornalístico emergem. Tais mudanças podem ser atribuídas à possibilidade de acesso a informações por meio de bases de dados, à convergência de mídias e de redações e à proliferação de mídias institucionais e de ferramentas de autopublicação” (PEREIRA; ADGHIRNI, 2011, p. 8). Uma das primeiras mudanças percebidas após o surgimento do Jornalismo Online foi no comportamento dos consumidores de notícias. Anteriormente, ler o jornal diário ou ouvir as notícias no rádio eram atividades inseridas na rotina das pessoas, como explana Rasêra: A leitura do jornal impresso era (e ainda é para pessoas mais tradicionais) uma atividade para ser feita ao tomar o café da manhã; à noite era hora do noticiário televisivo; e ao longo da semana e conseqüentemente do mês, era feita a leitura das revistas entregues nas residências por meio de assinaturas. Por muito tempo, estas eram as fontes disponíveis para o consumo de notícias (RASÊRA, 2010, p. 6). Entretanto, com a evolução da Web e do Jornalismo Online, o conteúdo multimídia passou a ser produzido e distribuído mais rapidamente, o que “introduziu, no início do século 21, uma era de abundância informativa, caracterizada pela preocupação sobre o crescente custo-benefício entre qualidade e quantidade de informação” (BOCZKOWSKI, 2010, loc. 2445 apud CORRÊA; BERTOCCHI, 2012, p. 34). Com isso, as pessoas passaram a consumir notícias de uma maneira praticamente involuntária. Alguns segundos de um canal a cabo de jornalismo 24 horas, enquanto mudam o canal da televisão; o programa de rádio com as notícias da hora, enquanto dirigem e escutam música; uma olhada por todas as manchetes de jornais pregados nos quiosques nas ruas; comentários gerais postados nas paredes da cantina do local de trabalho; comentários das notícias na homepage do Yahoo! enquanto procuram por alguma coisa online; resumos de e-mails mal digitalizados; e até mesmo, na hora do jantar, o cônjuge comenta alguma coisa vista em algum outro lugar qualquer (RASÊRA, 2010, p. 6). Alguns pesquisadores afirmam que “as pessoas estão passando mais tempo consumindo notícias em diferentes formatos do que faziam antes em um único meio” (RASÊRA, 2010, p. 7). Assim, os receptores não estão mais recorrendo a um só meio de comunicação.
  38. 38. 38 Ele [internauta] procura tudo. Ávido, é capaz de visitar 100 sites em 100 segundos, vê de tudo, gosta de novidades e está a cada dia mais surpreso com o poder da rede. E quanto mais ele a conhece, mais ele a ama. E se torna mais exigente. E depura mais o que vai ler. E isso transcende na Web: o cidadão quer mais qualidade em tudo, principalmente no que lê. Exige a honestidade. Se for para arriscar um futuro, vejo as pessoas selecionando cada vez mais a qualidade da sua leitura e as publicações que o acompanham no cotidiano. Este é o leitor cada vez mais valorizado, pois é mais preparado para exigir qualidade de produtos e serviços, incluindo editoriais (NETO apud SHÄFFER, 2007). Essas mudanças no comportamento dos receptores implicaram em mudanças também na produção e na distribuição de notícias, já que as empresas que não atentassem para esse fator poderiam rapidamente perder espaço no mercado. Os jornalistas têm sido “pressionados a buscar alternativas para o processo de coleta e formatação de informações para atender às novas exigências do público (mais ativo e participativo), o que implica em redefinir seus próprios valores” (MCNAIR, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2). Por um lado, “observa-se o aumento do conteúdo de entretenimento, resultado da intensificação da concorrência e das pressões exercidas pelos departamentos comerciais das empresas de comunicação” (CHARRON; BONVILLE, 2004; HALLIN, 1996 apud PEREIRA; ADGHIRNI, 2011, p. 2). Por outro, “empresas convergem suas diferentes operações midiáticas, criando novas plataformas, produtos híbridos exigindo que os profissionais de redação passem a produzir conteúdos multimídia e assumam o perfil multitarefas” (DEUZE, 2005; JORGE; PEREIRA; ADGHIRNI, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2). A pressão do tempo sobre a produção das notícias é uma das marcas permanentes do Jornalismo ao longo de sua história, mas o desenvolvimento das tecnologias digitais acelerou este processo nos últimos 20 anos, segundo Pereira e Adghirni (2011). “Na realidade, as representações temporais são uma das maiores revoluções do Jornalismo depois que a internet quebrou o ritmo circadiano da notícia” (PEREIRA; ADGHIRNI, 2011, p. 8). Diferentes estudos já apontam para este cenário de aceleração do ciclo de produção, circulação e consumo da notícia jornalística. Esse processo não foi motivado exclusivamente pela introdução da Internet, mas se deve a uma aceleração do tempo social e à adoção do formato de agências de notícias pelos jornais brasileiros, de acordo com os autores supracitados. O desenvolvimento das tecnologias digitais na última década apenas
  39. 39. 39 acelerou esse processo, fazendo com que os principais jornais começassem a disponibilizar informações produzidas em fluxo contínuo. Isso aumentou a pressão – por parte das empresas e do público – sobre os jornalistas pela atualização constante do conteúdo (Adghirni, 2004; Pereira, 2004; Weiss e Joyce, 2009). Ao mesmo tempo, perdura a cobrança pela publicação de notícias bem apuradas, que contenham informações de background e diversidade de fontes (Nguyen, 2010). Demanda, na verdade, que remete a uma antiga contradição (Moretzsohn, 2002): como produzir jornalismo de qualidade se não há disponibilidade de tempo hábil para uma boa apuração? Como conciliar as demandas por velocidade e “verdade” na produção jornalística? (PEREIRA; ADGHIRNI, 2011, p. 9). Outras mudanças percebidas são em relação ao aumento no número de atribuições dos jornalistas, concentrando processos como pesquisa, redação, edição, ilustração, publicação e pós-publicação em um único profissional, de acordo com Steensen (2009) apud Pereira e Adghirni (2011). Alguns jornalistas também acabam produzindo conteúdo para vários formatos midiáticos (impresso, TV, rádio, on-line), o que exige o desenvolvimento de novas competências e sobrecarga de trabalho. “Situação que as empresas adotam e vendem com orgulho, levando o profissional a assumir o slogan de jornalista 24 horas” (PEREIRA; ADGHIRNI, 2011, p. 10). Por outro lado, as tecnologias possibilitam que os jornalistas possam, cada vez mais, apurar as informações necessárias à produção de uma matéria sem sair das redações. E aumentou também a possibilidade de oferecer conteúdo mais aprofundado, já que o espaço virtual é praticamente ilimitado no que diz respeito à quantidade de informação que pode ser produzida, recuperada, associada e colocada à disposição do público-alvo. É fundamental que se enfatize que se trata da primeira vez que isso ocorre na História do Jornalismo, uma vez que, em todos os suportes anteriores (impresso, rádio, TV), o jornalista era obrigado a conviver com rígidas limitações de espaço (que se traduzem em tempo, no caso do rádio e TV) (PALACIOS, 2003, p. 8). Os jornais e revistas têm dado atenção cada vez maior para a produção de conteúdo exclusivo para a Internet. Se antes o conteúdo produzido para as mídias impressas era apenas replicado (integralmente ou em parte) no site do veículo; atualmente o Jornalismo Online se desenvolveu a ponto de ter equipes exclusivas com jornalistas, editores e fotojornalistas próprios. “Com o crescimento da massa de informação disponível aos cidadãos, torna-se ainda mais crucial o papel
  40. 40. 40 desempenhado por profissionais que exercem funções de filtragem e ordenamento desse material, seja a nível jornalístico, acadêmico, lúdico, etc.” (PALACIOS, 2003, p. 6). O jornalista online tem que fazer escolhas relativamente ao(s) formato(s) adequado(s) para contar uma determinada história (multimídia), tem que pesar as melhores opções para o público responder, interagir ou até configurar certas histórias (interatividade) e pensar em maneiras de ligar o artigo a outros artigos, arquivos, recursos, etc., através de hiperligações (hipertexto) (DEUZE, 2006, p. 18). O jornalista da redação digital tenta trabalhar para um púbico específico, como ocorre na sua versão impressa. A diferença é que no computador, o profissional busca uma fórmula para ser global e despertar o interesse de leitores de diversas partes do mundo. A internet ainda implora pelo desenvolvimento de normas, linguagens e modelos comerciais apropriados (QUADROS, 2002, p. 11). Diante da abundância informativa na web, Corrêa e Bertocchi (2012) falam da importância de uma “curadoria da informação”, no sentido de uma organização das informações na rede. Elas citam Rosenbaum (2011), que chama esse volume crescente de informações de "tsunami de dados" e Beiguelman (2011) que o chama de "dadosfera". Sem dúvida, o excesso de informação tende a continuar crescendo e lidar com isso torna-se um grande desafio. O maior mecanismo de busca da rede, o Google, por exemplo, só consegue varrer 5% das informações disponíveis na internet. E apesar de surgirem ferramentas de pesquisa como buscadores personalizados e direcionados, a atividade de curar a informação é imprescindível, pois as ferramentas e os aplicativos não dão conta de tudo o que acontece e não tem o olhar humano também (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 61). As autoras defendem que há muito mais uma “curadoria algorítmica de informação do que propriamente humana” (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 26). Isto por que "os algoritmos estão desempenhando um papel sociotécnico cada vez mais importante na mediação entre jornalistas, audiência e produtos de mídia" (ANDERSON, 2011, p. 529 apud CORRÊA E BERTOCCHI, 2012, p. 31). O argumento de Anderson se justifica pelo fato de diversos sites já utilizarem algoritmos para organizar seu conteúdo, como por exemplo: os buscadores (Google e outros), as redes sociais (Facebook), os sistemas agregadores baseados em RSS (GoogleReader), os sistemas de recomendação (Amazon, LastFM, Spotify), os produtos baseados em feeds (Paper.Ly, Scoop.it, Storify, Washington Post Social Reader) e as ferramentas de organização da
  41. 41. 41 informação por meio de imagens (Pinterest, WeHeartIrt). Há também os sistemas publicadores de conteúdo ou CMS (Content Management Systems), publicadores de blogs (Wordpress, Tumblr), publicadores personalizados (Joomla, Drupal) e publicadores proprietários criados por empresas informativas. As autoras nomeiam esses exemplos como "ferramentas de organização da abundância informática por meio de algoritmos" (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 30). Na verdade, a atividade de curadoria de informação está presente na Internet desde seus primórdios, visto que os mecanismos de busca sempre priorizaram a organização e a recuperação das buscas de formas e com hierarquias e prioridades diferentes. E por volta de 1997 e 1998, os primeiros blogs já faziam um tipo de curadorias através da recomendação e divulgação de links. No Jornalismo Online, o curador de informação deve “combinar competências de re-mediação, agregação de audiências, mineração de dados, inteligência distribuída, agenciamentos e adição de valor visando o exercício da ação comunicativa que, em última instância, objetiva a fixação e disseminação de mensagens, e a respectiva obtenção de valor como retorno” (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 34). Dessa forma, as ferramentas baseadas em algoritmos funcionam como parceiras do comunicador. É de se esperar que o comunicador-curador consiga participar dialogando com a tecnologia da construção de algoritmos, sistemas CMS e de aplicativos e, simultaneamente, ter uma visão sócio-antropológica do comportamento e das tendências de seu público-alvo (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 37). Beiguelman (2011 apud CORRÊA; BERTOCCHI, 2012) propõe três possíveis modelos de curadoria online, combinando elementos humanos e não-humanos. São eles: curador como filtrador, curador como agenciador e a plataforma como dispositivo curatorial. O curador-filtrador contextualiza informações e observa seus efeitos. Já o curador-agenciador seleciona e relaciona os conteúdos, além de fazer a mediação com os receptores da informação. O dispositivo curatorial, por sua vez, potencializa e facilita a organização das informações por meio de suas funcionalidades, que amplificam estrategicamente a produção e seleção de conteúdo. A esses três modelos de curadoria propostos por Beigueilman (2011), Corrêa e Bertocchi (2012) adicionam mais dois, que são: o curador como crítico e a
  42. 42. 42 recomendação como curadoria. No primeiro caso, o curador seleciona e compartilha alguma informação e faz um comentário ou crítica sobre a mesma. Já o segundo caso está relacionado aos filtros de informação que visam identificar perfis de consumo: um processo que ocorre por meio de softwares que tentam antecipar os interesses do consumidos nos ambientes digitais ou por meio de agentes humanos que atualizam o sistema com informações e categorizações, como ocorre com a folksonomia (tagueamento), por exemplo. Se devidamente inseridas nas rotinas produtivas das redações online, as técnicas de SEO podem ser incluídas entre essas várias formas de se organizar informações na Web, uma vez que contribuem para a localização de conteúdo de acordo com os interesses de cada leitor. Apesteguy (2013) afirma que as principais vantagens em aplicar técnicas de SEO nas redações de sites de notícia são: trazer mais leitores em curto prazo; tornar-se referência na Web sobre um determinado assunto; e aumentar o número de comentários, curtir, compartilhamentos e links apontando para sua matéria. O que ajudará a firmar sua posição nos resultados de busca. Alvarez (2011) pontua que é possível que jornalistas usem técnicas de SEO sem precisar alterar seu estilo de redação. Não são necessárias intervenções forçadas e sem sentido para alcançar relevância perante os buscadores. Para melhor ilustrar o atual interesse das grandes redações online nas possibilidades do SEO para a geração de tráfego aos seus sites e para a pulverização das notícias, o capítulo a seguir traz a experiência de quatro profissionais de diferentes grupos de comunicação.
  43. 43. 43 3 MÉTODO E ANÁLISE Para a viabilização deste levantamento sobre a utilização das técnicas de Search Engine Optimization no Jornalismo Online brasileiro, apresentar-se-á neste capítulo a experiência de quatro profissionais que atuam em redações online no Brasil. A seguir descrevem-se os procedimentos metodológicos que guiam o estudo. 3.1 PROCEDIMENTOS METODOLÓGICOS A fim de reunir informações que complementem a literatura apresentada, realizou-se uma pesquisa qualitativa, sem se preocupar com representatividade numérica, generalizações estatísticas e relações lineares de causa e efeito. O enfoque é a compreensão das informações de modo mais global, relacionando fatores e privilegiando contextos. Os dados coletados nessas pesquisas são descritivos, retratando o maior número possível de elementos existentes na realidade estudada. Preocupase muito mais com o processo do que com o produto (PRODANOV; FREITAS, 2009, p. 70). A literatura verificada compreende aspectos históricos da Internet, dos mecanismos de busca, das técnicas de SEO e do Jornalismo Online e as mudanças pela qual esse passou. Nesse sentido, o intuito foi reunir a literatura disponível, traçando um fio condutor e conector entre os assuntos e os complementando com o ponto de vista de profissionais da área. Quanto a seus objetivos, esta é uma pesquisa exploratória, já que visa conhecer em maior profundidade o tema a ser investigado, que conta ainda com poucos estudos específicos. ”Este tipo de pesquisa é realizado especialmente quando o tema escolhido é pouco explorado e torna-se difícil sobre ele formular hipóteses precisas e operacionalizáveis” (GIL, 2008, p. 27). A pesquisa exploratória possui planejamento flexível, o que permite o estudo do tema sob diversos ângulos e aspectos. Em geral, envolve: levantamento bibliográfico; entrevistas com pessoas que tiveram experiências práticas com o
  44. 44. 44 problema pesquisado; análise de exemplos que estimulem a compreensão, segundo Prodanov e Freitas (2009). Quanto aos procedimentos adotados para a coleta de dados, realizou-se inicialmente uma pesquisa bibliográfica em livros, artigos científicos e sites de referência nas áreas pesquisadas. “A principal vantagem da pesquisa bibliográfica reside no fato de permitir ao investigador a cobertura de uma gama de fenômenos muito mais ampla do que aquela que poderia pesquisar diretamente” (GIL, 2008, p. 50). Castells (2003) e Limeira (2003) foram os principais autores utilizados ao abordar Internet e Web. Já Fragoso (2007) e Kendzerski (2005) contribuíram com seus estudos sobre mecanismos de busca. Para tratar de SEO, foram consultados Apesteguy (2013), Ricotta (2008), Marcel (2009), Felipini (2010), Battelle (2006), Alvarez (2012), entre outros. Por sua vez, os estudos de Quadros (2002), Palacios (2003) e Pereira e Adghirni (2011) muito contribuíram para a apresentação da história do Jornalismo Online e suas principais caracterítiscas. As mudanças do fazer jornalístico ficaram a cargo de Corrêa e Bertocchi (2012) e Rasêra (2010). Foram realizadas também entrevistas estruturadas com quatro profissionais com conhecimento em SEO que atuam junto a redações online, a fim de coletar informações sobre a necessidade de conhecimento sobre SEO entre jornalistas que atuam ou irão atuar em redações online do Brasil. Segundo Prodanov e Freitas (2009), a entrevista é a obtenção de informações de um entrevistado sobre determinado assunto ou problema. Enquanto técnica de coleta de dados, a entrevista é bastante adequada para a obtenção de informações acerca do que as pessoas sabem, crêem, esperam, sentem ou desejam, pretendem fazer, fazem ou fizeram, bem como acerca das suas explicações ou razões a respeito das coisas precedentes (SELLTIZ, 1967, p. 273 apud GIL, 2008, p. 109). Quanto à entrevista estruturada, Prodanov e Freitas afirmam: “é quando o entrevistador segue roteiro preestabelecido. Ocorre a partir de um formulário elaborado com antecedência” (PRODANOV; FREITAS, 2009, p. 106). Para utilizar o conteúdo das entrevistas realizou-se análise de conteúdo. Laurence Bardin (2004) define a análise de conteúdo como um conjunto de técnicas de análise das comunicações que visa obter, por procedimentos sistemáticos e objetivos de descrição do conteúdo das mensagens, “indicadores (quantitativos ou não) que
  45. 45. 45 permitam a inferência de conhecimentos relativos às condições de produção/recepção (variáveis inferidas) destas mensagens” (BARDIN, 2004, p. 37). A análise de conteúdo possui duas funções: heurística, onde enriquece a tentativa exploratória e aumenta a propensão à descoberta, em uma análise “para ver o que dá” (BARDIN, 2004, p. 25); e de administração de prova, onde hipóteses sob a forma de questões ou afirmações provisórias apelarão para o método de análise sistemática e serão verificadas para obter confirmação ou não. Para o autor, é uma análise “para servir de prova” (BARDIN, 2004, p. 25). Na sequência, apresentar-se-á cada um dos grupos de comunicação representados pelos entrevistados. A Infoglobo surgiu através do Jornal O Globo, que começou a ser distribuído no Rio de Janeiro em 1925. O Globo foi o primeiro no país e em toda a América Latina a disponibilizar seu conteúdo impresso no Kindle, o leitor para livros digitais (e-books) produzido pela Amazon. Em 2006, o site de O Globo completou 10 anos e teve seu layout renovado. O papel da Infoglobo, segundo histórico no site 10 do mesmo, é apurar os fatos para que possam ser veiculados nos jornais O Globo, Extra e Expresso e sites da Globo do Jornal Extra e da Agência O Globo. Em dezembro de 1998, a Infoglobo inaugurou o maior Parque Gráfico da América Latina. O projeto entrou para a História e se tornou uma referência em tecnologia e qualidade. O Grupo RBS foi fundado em 31 de agosto de 1957 por Maurício Sirotski Sobrinho, que naquele ano assumiu a direção da Rádio Gaúcha. Em 1962, entrou no ar a TV Gaúcha, hoje RBS TV que, por sua vez, conta com emissoras afiliadas à Rede Globo nos estados do Rio Grande do Sul e Santa Catarina. Em 1970, o grupo assumiu o controle do jornal Zero Hora. Os anos que se seguiram foram de expansão e novas aquisições e atualmente o Grupo RBS já conta com mais de 6500 colaboradores, segundo o site do grupo11. Por sua vez, o Correio Braziliense “é um jornal brasileiro com sede em Brasília, pertencente ao Grupo Diários Associados”12, que foi fundado em 21 de abril de 1960 por Assis Chateaubriand. E mesmo após a morte de Assis Chateaubriand, o Correio continuou a pertencer aos Diários Associados, sendo o principal jornal da Capital Federal. Na gestão do editor executivo Ricardo Noblat, foi o jornal brasileiro 10 Disponível em https://www.infoglobo.com.br/Anuncie/institucional.aspx. Disponível em http://www.gruporbs.com.br/quem_somos/index.php?pagina=grupoRBS. 12 Disponível em http://pt.wikipedia.org/wiki/Correio_Braziliense. 11

×