sexta-feira, 6 de julho de 2012
INDEX /OF site subdomínio nasa.gov
Pra você caro amigo navegador da net que gosta de fuçar em arquivos do governo ou só ter a sensação de navegar em algo proibido "Digamos assim kkk"
Aé vai um Index /Of que esta dentro do domínio Nasa.gov essa mesmo famosa Nasa.
LINK http://hesperia.gsfc.nasa.gov/ssw/soho/lasco/idl/database/include/
LINK http://hesperia.gsfc.nasa.gov/ssw/
quinta-feira, 5 de julho de 2012
O Governo da Colômbia pode premiar seu talento com dinheiro!
Recebo & Compartilhos
O Ministério da Tecnología da Informação e das Comunicações da Colômbia (Mintic) está desafiando você a apresentar sua ideia de um aplicativo para dispositivos móveis e websites em 12 diferentes categorias de interesse público. A ideia é facilitar a vida dos cidadãos colombianos, melhorando os trâmites e os serviços prestados pelo Estado. Caso a sua ideia seja pré-selecionada, você poderá participar da segunda fase e seguir na disputa para ser o grande vencedor.
O desafio contará com duas etapas, uma para a apresentação de ideias, e outra para o desenvolvimento funcional do projeto.
- Na primeira, os campuseiros devem pensar e planificar, conceitualmente, uma APP para dispositivos móveis e websites focada em um dos serviços do Estado colombiano dentro de uma, ou mais, das 12 categorias disponíveis. Entre elas, é possível encontrar temas como educação, saúde, meio ambiente, serviços públicos, trabalho e emprego.
- Na segunda fase, na qual participarão apenas os semifinalistas selecionados pela primeira etapa, será preciso entregar o desenvolvimento funcional da aplicação correspondente a ideia apresentada.
PRIMEIRA FASE
• Prêmio para a melhor ideia de APP em cada uma das 12 categorias: um tablet.
SEGUNDA FASE
• rêmio ao melhor projeto de APP entre os 12 selecionados na primeira etapa: 7.500.000 pesos colombianos (aproximadamente US$ 4.200)
Você tem até 25 de julho para fazer a sua inscrição na primeira fase do desafio do Mintic na Campus Labs e seguir na disputa pelo prêmio principal!
Não perca esta oportunidade e dê asas as suas ideias!
Para mais informações acesse: campus-labs.com
Boa sorte!
Não perca esta oportunidade e dê asas as suas ideias!
Para mais informações acesse: campus-labs.com
Boa sorte!
Este e-mail foi enviado para o endereço disponibilizado através do cadastro de CAMPUSEIROS da Futura Networks S.L. porque você optou pela inclusão através do nosso site http://www.campus-party.com.br. A qualquer momento você poderá exercer o seu direito de acesso, retificação, cancelamento e oposição através do envio de um e-mail para [email protected], ou enviando uma carta a qualquer um dos seguintes endereços: Av. Angélica, 2163 (Salas 65/66) - São Paulo, SP CEP: 01227-200 BRASIL / Calle Aduana 33,4º, 28013 de Madrid, ESPAÑA. Caso você queira simplesmente deixar de receber este tipo de contato, basta enviar um e-mail ao mesmo contato indicado acima. Basta colocar no assunto da mensagem a palavra BAIXA. |
Re: ICMBio - Instituto Chico Mendes de Conservação da Biodiversidade: Vulnerabilidade ativa
Caso encerrado.
Resposta :
Boa tarde,
O grupo Google INURL - Brasil
Ficamos satisfeitos pelo retorno.
Não postamos as falhas em nosso blog, vamos postar sua resposta assim
Dando credibilidade e importância ao ocorrido.
Muito obrigado & Boa noite.
Estamos de olho.
Atenciosamente Grupo Google INURL - Brasil
Estamos de olho.
Atenciosamente Grupo Google INURL - Brasil
---- Original Message ----
From: Uilson Azevedo
To: "Google INURL - BRASIL"
Cc: "Carlos Roberto Lacerda Cunha", "Renata Gomes" , "Mauro Felipe" , "ICMBio Instituto Chico Mendes de Conservação da Biodiversidade"
Sent: Qui, Jul 5, 2012, 16:58 PM
Subject: Re: ICMBio - Instituto Chico Mendes de Conservação da Biodiversidade: Vulnerabilidade ativa no site http://www4.icmbio.gov.br/
Senhores,
Agradecemos pela observação.
Os sites hospedados no domínio citado (www4.icmbio.gov.br) estão em processo de desativação pois são aplicações legadas e que poderiam mesmo ter vulnerabilidades.
Todas as medidas de segurança e isolamento do host foram tomadas antes de publicar os sites.
Qualquer dúvida estamos à disposição.
Uilson AzevedoConforme orientação do Coordenador de TecnologiaICMBio
Em 5 de julho de 2012 13:19, Ascom ICMBio <[email protected]> escreveu:
Carlos e Uilson,
chegou este email e achei pertinente que vces analisem, por se tratar da segurança do portal.
Sandra Tavares9290
---------- Mensagem encaminhada ----------
De: Google INURL - BRASIL <[email protected]>
Data: 5 de julho de 2012 11:52
Assunto: ICMBio - Instituto Chico Mendes de Conservação da Biodiversidade: Vulnerabilidade ativa no site http://www4.icmbio.gov.br/
Para: [email protected]
Este é um e-mail de pedido de informações via http://www.icmbio.gov.br/portal/ de:
Google INURL - BRASIL <[email protected]>
Bom dia,
Venho informa que o site icmbio.gov.br
esta com uma vulnerabilidade SQL INJECTION que da acesso as tabelas usuários administrador do site.
Nível:Critico.
Vulnerabilidade ativa no site Site: www.icmbio.gov.br
Espero um retorno com correção da brecha.
Atenciosamente http://blog.inurl.com.br
--
Divisão de Comunicação Social - DCOM
Instituto Chico Mendes de Conservação da Biodiversidade - ICMBio
Ministério do Meio Ambiente - MMA
EQSW 103/104, Complexo Administrativo, Bloco B, Térreo, Setor Sudoeste, CEP 70.670-350, Brasília-DF
Tel.: (61) 3341-9280 begin_of_the_skype_highlighting (61) 3341-9280 end_of_the_skype_highlighting a 3341-9294
www.icmbio.gov.br
[email protected]
--
Uilson Azevedo
CTI - Coordenação de Tecnologia
ICMBio - Instituto Chico Mendes de Biodiversidade
Fone: (61) 3341 9606 begin_of_the_skype_highlighting (61) 3341 9606 end_of_the_skype_highlighting
Celular: (61) 9805 5512 begin_of_the_skype_highlighting (61) 9805 5512 end_of_the_skype_highlighting
Cross-site scripting (XSS) por Ahmed Elhady Mohamed
Introdução
[+] XSS por Wikipédia
Cross-site scripting (XSS) é um tipo de vulnerabilidade do sistema de segurança de um computador, encontrado normalmente em aplicações web que ativam ataques maliciosos ao injetarem client-side script dentro das páginas web vistas por outros usuários. Um script de exploração de vulnerabilidade cross-site pode ser usado pelos atacantes para escapar aos controles de acesso que usam a mesma política de origem.
[+] XSS é perigoso?
Sim, XSS é realmente perigoso, é de alta gravidade, porque ele poderia mudar o site e roubar as credenciais de administrador, nestes casos, o invasor pode controlar e comprometer o aplicativo.
Eu nunca tinha dado tanta importância para o XSS até ver uma palestra na CPBR5 que falava das 10 ameaças da OWASP mais usadas, vi coisas realmente incríveis com o XSS até mesmo roubo de sessões.
[+] O Que o atacante quer alcançar?
- Alterar configurações
- Roubar cookies
- Fazer uma publicação falsa
- Realizar roubos de Tokens para ataque CSRF
[+] Tipos de Ataques XSS
Persistent (stored) XSS
O ataque é armazenado no site.
O ataque é armazenado no site.
Non persistent (reflect) XSS
Usuário tem que ir através de um link especial para ser explorado.
Usuário tem que ir através de um link especial para ser explorado.
DOM-based XSS
problema existe dentro do script do lado do cliente
problema existe dentro do script do lado do cliente
Vamos discutir cada tipo destes ataques em detalhes.
[+] Persistent (stored) XSS
O persistent (or stored) vulnerability XSS é uma variante mais devastadora da falha de cross-site scripting, ela ocorre quando os dados fornecidos pelo atacante é salvo pelo servidor e em seguida permanentemente exibida nas páginas retornadas para outros usuários na exibição regular da navegação. Um exemplo clássico disso é com quadros de mensagens de forum onde os usuários tem permissões para postar mensagens formatadas em HTML para que outros usuários possam ler.
Persistent XSS simplesmente ocorre quando o desenvolvedor armazena os dados de entrada do usuário no banco de dados ou simplesmente o escreve em um arquivo sem uma filtragem adequada, em seguida, envia-os novamente para os usuários.
[+] Exemplo de persistent XSS em PHP
'.mysql_error().'
'); } ?>
Os dois parâmetros em que o código ”message” e ”name” não são higienizados adequadamente e assim nós armazenamos estes parâmetros para a tabela no guestbook(livro de visitas), portanto, quando a exibição desses parâmetros voltar ao navegador do cliente, ele irá executar o código JavaScript malicioso.
< –
Dentro da caixa de texto vulnerável foi inserido um código em java script malicioso.
– >
Assim que o código é executado olha o resultado:
[+] Non Persistent (Reflected) XSS
A definição non persistent (ou reflected) XSS é de longe o tipo mais comum. Estes buracos aparecem quando os dados fornecidos por um cliente web, mais comumente em parâmetros de consulta HTTP ou envios de formulários HTML, é usado imediatamente por scripts do servidor para gerar uma página de resultados para o usuário, sem a correta higienização do pedido.
[+] Exemplo de non persistent XSS em PHP
'; echo 'Hello' . $_GET['name']; echo '
'; } ?>
Como você pode ver, o “name” é um parâmetro não higienizado e retornara para o usuário, assim quando o usuário injetar um código malicioso em JS ele será executado.
Vamos injetar o código e vejamos o que vai acontecer.
Assim que inserimos o código no campo vulnerável ele retorna o erro e notem que na barra de navegação do browser que ele vai mostrar o código digitado também.
.
.
.
.
.
O restante do artigo fiquei com um pouco de preguiça de traduzir, mas é um bom artigo e vale a pena se visualizado.
Segue o link do PDF http://www.exploit-db.com/wp-content/themes/exploit/docs/18895.pdf
quarta-feira, 4 de julho de 2012
Europa rejeita entrada na Acta, que busca controle da web.
http://pt.wikipedia.org/wiki/Acordo_Comercial_Anticontrafa%C3%A7%C3%A3o
O parlamento europeu rejeitou a assinatura do Acordo de Comércio de Anti-Contrafacção (tradução livre para Anti-Counterfeiting Trade Agreement, ou Acta), por 478 votos contra 39. As informações foram publicadas nesta quarta-feira (04/07) pelo blog TechCrunch.
Discussões sobre a Acta ressurgiram mais fortemente em janeiro deste ano, por conta da polêmica envolvendo os projetos de lei norte-americanos Sopa e Pipa, que visavam a buscar o controle de compartilhamento de arquivos na web. A Acta é datada de outubro de 2011 e já foi assinado por países como Finlândia, França, Irlanda, Itália, Portugal, Romênia e Grécia. Mais recentemente, agora em janeiro de 2011, foi a vez da Polônia entrar para o grupo.
O parlamento europeu rejeitou a assinatura do Acordo de Comércio de Anti-Contrafacção (tradução livre para Anti-Counterfeiting Trade Agreement, ou Acta), por 478 votos contra 39. As informações foram publicadas nesta quarta-feira (04/07) pelo blog TechCrunch.
Discussões sobre a Acta ressurgiram mais fortemente em janeiro deste ano, por conta da polêmica envolvendo os projetos de lei norte-americanos Sopa e Pipa, que visavam a buscar o controle de compartilhamento de arquivos na web. A Acta é datada de outubro de 2011 e já foi assinado por países como Finlândia, França, Irlanda, Itália, Portugal, Romênia e Grécia. Mais recentemente, agora em janeiro de 2011, foi a vez da Polônia entrar para o grupo.
A regulação do tráfego de informações pela internet é apenas uma parte do documento, que conta com 22 páginas. A ideia é que os países colaborem uns com os outros na concessão de informações de usuários que se valham de conteúdo protegido por copyright na web. “Esses procedimentos devem ser implementados como forma de evitar a criação de barreiras para atividades legítimas, incluindo comércio eletrônico, e, condizente com a lei, preserve princípios fundamentais, tais como liberdade de expressão, processos jutos e privacidade”, diz o documento.
Segundo a notícia do TechCrunch, a rejeição dos países europeus pode tornar mais difícil a implantação das normas em países que já aprovaram a medida mais ainda não a ratificaram, tais como Austrália, Canadá, Japão, Coreia do Sul, Marrocos, Nova Zelândia, Cingapura e Estados.
domingo, 3 de junho de 2012
O que é Session Hijacking
Hijacking - Corresponde a um ataque aonde uma sessão activa é interceptada e utilizada pelo atacante. Pode acontecer localmente se o PC for deixado desprotegido, ou remotamente via internet."
Introdução
O Termo “Session Hijacking” refere-se à exploração de uma sessão válida de um computador – as vezes também chamada de Session Key ou ID – para conseguir acesso não-autorizado a informações ou serviços em um sistema de computador.
Em particular, é usado para referir-se ao roubo do Magic Cookie, utilizado para autenticar um usuário em um servidor remoto. Isto é particularmente relevante para os desenvolvedores Web, já que os HTTP Cookies usados para manter uma sessão em diversos sites Web podem facilmente ser roubados por um atacante utilizando um computador que esteja no meio da comunicação ou então acessando os cookies salvos no computador da vítima.
Muitos web sites permitem que usuários criem e gerenciem suas próprias accounts, logando utilizando um username e password (que pode ou não ser criptografada durante o transito) ou outro método de autenticação. Para que o usuário não tenha que re-digitar seu usuário/senha em todas as página para manter sua sessão, muitos web sites utilizam-se de cookies: um token de informações solicitadas pelo server e retornada pelo user browser para confirmar sua identidade.
Se um atacante estiver habilitado a rouber este cookie, ele pode fazer requisições como se fosse o usuário legítimo, ganhando acesso à informações privilegiadas ou até modificando dados. Se o cookie for um Cookie Persistente, o roubo de identidade pode se estender por um tempo muito longo.
É claro que Session Hijacking não é limitada para a Web, qualquer protocolo cujo o estado é mantido através de uma key que é checada através de dois computadores é vulnerável, especialmente se não for criptografada.
Terminologia
Uma das grandes vantagens de utilizar o Mozilla Firefox é que você pode conseguir uma porção de plugins interessantes para explorar aplicações. Tamper Data, Cookie Culler, AEC Cookie Editor são alguns destes. Uma pequena introdução sobre estas tools.
- Tamper Data: É utilizado para rastrear a comunicação entre o browser e o servidor e esta funcionalidade permite interceptar e modificar os dados “on the Fly” e re-enviar para o servidor.
- Cookie Culler: É utilizado para visualizar os cookies e apaga-los caso seja necessário
- AEC Cookie Edito: Permite melhor controle sobre o Cookie que você modifica, e assim modificar seu conteúdo para testar vulnerabilidades em sua aplicação web.
Um Exemplo
Vamos verificar algumas tools mencionadas acima. Aqui, TamperData mostra a comunicação de outgoing onde eu fiz um search por “Session Hijacking” no google. Você pode ver ambos os Headers, tanto de request quanto de response assim como os parametros GET, POST e seus valores.
AEC Cookie Editar mostra informações a respeito dos Cookies no sistema e explica como um Web Server rastreia os clientes utilizando os cookies.
Exploitation Scenario
A maioria das aplicações web utilizam HTTP e HTTPS protocols juntos para suas comunicações dependendo da sensibilidade da informação que está sendo enviada através do canal de comunicação. Em geral o HTTPS é ativado para enviar username/password, informações financeiras e outras informações importantes. Uma vez que a informação é enviada a aplicação volta a utilizar HTTP novamente.
Normalmente se você observar uma aplicação web, ela joga seus cookies assim que você visita a página pela primeira vez e o cookie vai manter o seu Session ID. Este ID e uma importante peça de informação a qual poderá ser utilizada para rastrear a sessão toda vez que o usuário se logar. Muitas pessoas negligenciam a importancia deste ID. Todas as vezes antesde entrar num canal seguro, eles utilizam o mesmo Session ID. Aí é onde a vulnerabilidade existe. Sniffar uma rede é muito simples. Uma grande variedade de softwares estão disponiveis para sniffar informações de forma ativa e passiva.
Especialmente em redes wireless, sniffing é fácil como roubar doce de criança :-)
A maioria das web applications vai dar acesso ao Sniffer se este conseguir o Session ID se um usuário que ainda está logado no sistema e poderá permitir que ele acesse importantes informações da vítima. Esta vulnerabilidade existe na maioria dos sites comerciais que provem vários serviços. Provedores de E-mail, Sites de Shopping, etc todos estão vulneráveis à este tipo de ataque se implementarem a autenticação desta forma.
sexta-feira, 1 de junho de 2012
Obama ordenou aumento de ciberataques contra sistemas de usinas nucleares do Irã, diz jornal
O presidente dos Estados Unidos Barack Obama teria ordenado, já nos primeiros meses de mandato no cargo, que ataques “sofisticados” contra sistemas de computadores de usinas nucleares no Irã fossem intensificados, segundo reportagem do “New York Times” desta sexta (1º).
De acordo com participantes da ação, a decisão aumentou significativamente a primeira ação sustentada por armas cibernéticas do país. De acordo com o “New York Times”, Obama acelerou os ataques (iniciados na administração de George W. Bush), mesmo depois que o vírus, conhecido como Stuxnet, acidentalmente saiu das usinas nucleares iranianas e circulou na internet mundial.
O Stuxnet, desenvolvido em conjunto pelos Estados Unidos e Israel, foi descoberto por empresas de segurança logo após sua “fuga acidental” do Irã. O “New York Times” afirma que houve uma reunião logo após o ocorrido na Casa Branca, com a presença de Joe Biden, vice-presidente dos EUA, e o diretor da CIA (Agência Central de Inteligência) na época, Leon E. Panetta, na qual consideraram que o esforço “havia sido fatalmente comprometido”.
Obama teria perguntado “devemos desligar essa coisa?”, segundo membros da segurança nacional presentes na sala. Ao ser avisado que ainda não estava claro o quanto os iranianos sabiam sobre o código do vírus e que ele ainda estava “causando estragos”, Obama teria decidido continuar o ataque cibernético.
De acordo com o jornal americano, nas semanas seguintes, a usina nuclear iraniana de Natanz foi atacada com uma nova versão do vírus e mais uma vez depois também. Na última série de ataques, poucas semanas depois de o Stuxnet ser detectado no mundo, cerca de 1.000 a 5.000 centrífugas que enriquecem urânio foram paralisadas.
As informações foram obtidas pelo “New York Times” após 18 meses de entrevistas com ex-oficiais americanos, israelenses e europeus envolvidos na ação, além de outros especialistas.
O Irã inicialmente negou que suas usinas nucleares haviam sido atacadas por um vírus de computador, mas depois admitiram o fato. O país, após o ataque, criou uma unidade militar de ciberdefesa em 2011.
O governo dos Estados Unidso apenas recentemente admitiu desenvolver armas cibernéticas e nunca admitiu tê-las utilizado.
segunda-feira, 28 de maio de 2012
Essa dork vai para os carinhas da net que gosta de um Scanner especifico pra vulneráveis php
Essa dork vai para os carinhas da net que gosta de um Scanner especifico pra vulneráveis php
Dork: inurl:"*.php?*=*.php" intext:"Warning: include" -inurl:.html -site:"php.net" -site:"stackoverflow.com" -inurl:"*forums*"
Se o seu site foi infectado com malware.
Se o seu site foi infectado com malware
Após ter certeza de que todo código malicioso foi removido, será possível solicitar uma análise de malware do seu site. O Google verificará o seu site e, se nenhum malware for detectado, removerá o marcador de aviso que aparece na listagem do seu site na página de resultados de pesquisa.
- Na página inicial das Ferramentas do Google para webmasters, selecione o site que desejar.
- Clique em Status do site e, depois, em Malware.
- Clique em Solicitar uma análise.
Se os invasores colocaram spam no seu site
Após o seu site estar livre de spam, será possível pedir ao Google para reconsiderar sua inclusão nos resultados de pesquisa.
Para pedir a reconsideração do seu site:
- Acesse as Ferramentas do Google para webmasters com sua Conta do Google.
- Certifique-se de adicionar e verificar o site que deseja reconsiderar.
- Pedido de reconsideração do seu site.
Assim o Google vai verificar todo código do seu site, para constar que realmente não dispõem de nem outro código malicioso, depois dessa etapa seu site volta aparece nos resultados, porem pode levar algum tempo para entrar no posição de antes.
Diretrizes para webmasters boas práticas.
Diretrizes para webmasters
Práticas recomendadas para ajudar o Google a encontrar, rastrear e indexar seu site
Siga as diretrizes abaixo para ajudar o Google a encontrar, indexar e classificar seu site. Mesmo que você decida não implementar as sugestões, recomendamos que preste atenção às "Diretrizes de qualidade", que destacam algumas práticas ilícitas que podem levar à remoção de seu site do índice do Google ou à ação manual ou por algoritmos de spam. Se um site for afetado por uma ação de spam, ele não será mais exibido nos resultados no Google.com.br ou em qualquer site parceiro do Google.
Quando o seu site estiver pronto:
Diretrizes de conteúdo e design | Saiba mais... |
Diretrizes técnicas | Saiba mais... |
Diretrizes de qualidade | Saiba mais... |
- Envie-o ao Google em http://www.google.com/submityourcontent/.
- Envie um Sitemap utilizando as Ferramentas do Google para webmasters. O Google utiliza o seu Sitemap para obter informações sobre a estrutura do seu site e aumentar a nossa cobertura das suas páginas web.
- Verifique se todos os sites que devem saber sobre as suas páginas estão cientes de que o seu site está on-line.
Diretrizes de conteúdo e design |
- Construa um site com uma hierarquia clara e links de texto. Cada página deve ser acessada a partir de pelo menos um link de texto estático.
- Mostre aos usuários um mapa do site que relacione o tópico às partes importantes do seu site. Se o mapa do site tiver muitos links, convém dividi-lo em várias páginas.
- Utilize um número razoável de links por página.
- Crie um site útil, com muitas informações e páginas que descrevam de forma clara e precisa o seu conteúdo.
- Pense nas palavras que os usuários digitariam para encontrar as suas páginas e verifique se elas aparecem no seu site.
- Tente usar texto, em vez de imagens, para exibir nomes, conteúdo ou links importantes. O rastreador do Google não reconhece texto contido em imagens. Se for necessário usar imagens para conteúdo de texto, avalie a possibilidade de usar o atributo "ALT" para incluir algumas palavras de texto descritivo.
- Verifique se os elementos
e os atributos alt são descritivos e precisos.</li><br><li>Verifique se há links quebrados e corrija o código HTML.</li><br><li>Se você decidir usar páginas dinâmicas (por exemplo, o URL que contém um caractere “?”), saiba que nem todos os spiders de mecanismos de pesquisa rastreiam as páginas dinâmicas e estáticas. Isso ajuda a manter os parâmetros curtos e a quantidade desses parâmetros pequena.</li><br><li>Revise nossas práticas recomendadas para <a href="http://support.google.com/webmasters/bin/answer.py?answer=114016" style="color: rgb(102, 17, 204); ">imagens</a> e <a href="http://support.google.com/webmasters/bin/answer.py?answer=156442" style="color: rgb(102, 17, 204); ">vídeo</a>.</li></ul></div><p></p>
fonte..: http://support.google.com/webmasters/bin/answer.py?hl=pt-BR&answer=35769
Diretrizes técnicas Google.
Vamos falar um pouco de Tags,Robts,Googlebot
Diretrizes técnicas |
- Use um navegador de texto como o Lynx para examinar o seu site, pois muitos spiders de mecanismos de pesquisa veem o site do mesmo modo que o Lynx. Se recursos especiais como JavaScript, cookies, IDs de sessão, frames, DHTML ou Flash permitirem que você veja todo o site em um navegador de texto, os spiders dos mecanismos de pesquisa poderão ter dificuldade em rastrear o seu site.
- Deixe que os robôs de pesquisa rastreiem o seu site sem que IDs de sessão ou argumentos acompanhem suas trajetórias no site. Essas técnicas são úteis para monitorar um determinado comportamento do usuário, mas o padrão de acesso dos robôs é completamente diferente. Se você usar essas técnicas, a indexação do seu site poderá ser incompleta, já que os robôs talvez não consigam eliminar os URLs que têm aspecto diferente, mas que apontam para a mesma página.
- Verifique se o servidor web suporta o cabeçalho "If-Modified-Since HTTP". Esse recurso permite que o servidor web informe ao Google se houve alteração no conteúdo desde o último rastreamento do site. A utilização desse recurso permite obter economia na largura de banda e nas despesas gerais.
- Use o arquivo robots.txt no servidor web. Esse arquivo informa aos rastreadores quais diretórios podem ou não ser rastreados. Verifique se ele está disponível no site para que você não bloqueie acidentalmente o rastreador do Googlebot. Acessehttp://code.google.com/web/controlcrawlindex/docs/faq.html para saber como instruir robôs quando visitarem seu site. Você pode testar seu arquivo robots.txt para verificar se está utilizando-o corretamente com a ferramenta de análise do robots.txt disponível nas Ferramentas do Google para webmasters.
- Faça um esforço para garantir que os anúncios não interfiram nas classificações dos mecanismos de pesquisa. Por exemplo, os anúncios do Google AdSense e os links do DoubleClick têm o rastreamento bloqueado por um arquivo robots.txt.
- Se a sua empresa adquirir um sistema de gerenciamento de conteúdo, verifique se o sistema cria páginas e links que podem ser rastreados pelos mecanismos de pesquisa.
- Use o arquivo robots.txt para evitar a indexação de páginas de resultados de pesquisa ou outras páginas geradas automaticamente que não acrescentam valor para usuários provenientes de mecanismos de pesquisa.
- Teste o site para verificar se ele aparece corretamente em navegadores diferentes.
- Monitore o desempenho do seu site e otimize os tempos de carregamento. A meta do Google é fornecer aos usuários resultados mais relevantes e uma ótima experiência. Sites mais rápidos aumentam a satisfação do usuário e melhoram a qualidade geral da web (especialmente para os usuários com conexões lentas com a internet), e esperamos que, à medida que os webmasters aprimoram os seus sites, a velocidade geral da web melhore.O Google recomenda a todos os webmasters monitorar regularmente o desempenho do site usando o Page Speed, o YSlow, o WebPagetest ou outras ferramentas. Para obter mais informações, ferramentas e recursos, consulte Vamos tornar a web mais rápida. Além disso, a ferramenta Desempenho do site nas Ferramentas do Google para webmasters mostra a velocidade de seu site conforme a experiência de usuários do mundo todo.
fonte..: http://support.google.com/webmasters/bin/answer.py?hl=pt-BR&answer=35769
Diretrizes de qualidade Google.
Não tenha um comportamento
fraudulento por falta de informação.
Essas diretrizes de qualidade tratam das formas mais comuns de comportamento fraudulento ou manipulador, mas o Google pode responder de forma negativa a outras práticas enganosas que não estão listadas aqui (por exemplo, registrar sites com nomes semelhantes aos de sites conhecidos, mas com uma ligeira diferença ortográfica). O fato de uma determinada técnica fraudulenta não constar desta página não significa que ela seja aprovada pelo Google. Os webmasters que se esforçam para manter os princípios básicos certamente proporcionarão uma melhor experiência aos usuários e, consequentemente, obterão melhores classificações do que aqueles que perdem tempo à procura de atalhos e brechas.
Se você acreditar que outro site está abusando das diretrizes de qualidade do Google, denuncie esse site em https://www.google.com/webmasters/tools/spamreport. O Google prefere resolver os problemas de forma automatizada e escalonável. Por isso, tentamos minimizar conflitos em relação a spams. As informações sobre spam que recebemos são usadas para criar algoritmos escalonáveis que reconheçam e bloqueiem futuras tentativas de spam.
Diretrizes de qualidade - princípios básicos
Fonte..: http://support.google.com/webmasters/bin/answer.py?hl=pt-BR&answer=35769
Diretrizes de qualidade |
Essas diretrizes de qualidade tratam das formas mais comuns de comportamento fraudulento ou manipulador, mas o Google pode responder de forma negativa a outras práticas enganosas que não estão listadas aqui (por exemplo, registrar sites com nomes semelhantes aos de sites conhecidos, mas com uma ligeira diferença ortográfica). O fato de uma determinada técnica fraudulenta não constar desta página não significa que ela seja aprovada pelo Google. Os webmasters que se esforçam para manter os princípios básicos certamente proporcionarão uma melhor experiência aos usuários e, consequentemente, obterão melhores classificações do que aqueles que perdem tempo à procura de atalhos e brechas.
Se você acreditar que outro site está abusando das diretrizes de qualidade do Google, denuncie esse site em https://www.google.com/webmasters/tools/spamreport. O Google prefere resolver os problemas de forma automatizada e escalonável. Por isso, tentamos minimizar conflitos em relação a spams. As informações sobre spam que recebemos são usadas para criar algoritmos escalonáveis que reconheçam e bloqueiem futuras tentativas de spam.
Diretrizes de qualidade - princípios básicos
- Crie páginas principalmente para os usuários, não para os mecanismos de pesquisa. Não engane os seus usuários nem apresente aos mecanismos de pesquisa um conteúdo diferente daquele que você exibe aos usuários, o que normalmente é chamado de "cloaking" (camuflagem do conteúdo real da página).
- Evite truques para melhorar a classificação nos mecanismos de pesquisa. Um bom parâmetro é imaginar se você se sentiria à vontade se tivesse que justificar as suas ações para um site concorrente. Outro teste útil é perguntar a si mesmo: "Isso ajudará os meus usuários? Eu faria isso se os mecanismos de pesquisa não existissem?"
- Não participe de esquemas em que os links são usados para aumentar a classificação do seu site ou que utilizem o PageRank. Evite, principalmente, links para autores de spam ou para "más vizinhanças" na web, já que esses tipos de link podem prejudicar a classificação do seu site.
- Não use programas não-autorizados para enviar páginas, verificar classificações etc. Esses programas consomem recursos de computação e violam os nossos Termos de Serviço O Google não recomenda a utilização de produtos como WebPosition Gold&;, que enviam consultas automáticas ou programadas ao Google.
- Evite usar texto ou links ocultos.
- Não utilize técnicas de cloaking (camuflagem do conteúdo real da página) nem faça redirecionamentos não autorizados.
- Não envie consultas automáticas ao Google.
- Não carregue páginas com palavras-chave irrelevantes.
- Não crie várias páginas, subdomínios ou domínios com conteúdo duplicado.
- Não crie páginas com comportamento mal-intencionado, como phishing ou instalação de vírus, cavalos de Troia ou outros tipos de softwares nocivos.
- Evite usar páginas de "entrada" criadas apenas em função dos mecanismos de pesquisa, ou outras técnicas "pré-fabricadas", como programas de filiação, que têm pouco ou nenhum conteúdo original.
- Se o seu site participa de um programa de filiação, certifique-se de que ele agrega valor. Forneça um conteúdo exclusivo e relevante que atraia os usuários a visitarem o seu site primeiro.
Fonte..: http://support.google.com/webmasters/bin/answer.py?hl=pt-BR&answer=35769
atualizado 03/09/2012
f
f
sexta-feira, 25 de maio de 2012
Surge primeiro malware brasileiro que ataca o Facebook
Surge primeiro malware brasileiro que ataca o Facebook
Imagem: Kaspersky Lab
“A popularização da rede fará com que os ataques passem a ser concentrados no Facebook. Esse será o primeiro de muitos outros que virão”, prevê o analista de malware da Kaspersky Lab no Brasil e descobridor do novo worm, Fábio Assolini. Segundo o analista, o alcance da praga é baixo até o momento. “Registramos infecções de usuários no Brasil e em Portugal, mas o número de vítimas é pequeno porque reportamos o problema ao Facebook, que tem bloqueado o link”, assegura.
autor: risastoider
O uso do Facebook no Brasil cresceu 258% no último ano, contra 28% do Orkut que, durante muito tempo, foi a rede social preferida dos brasileiros. De olho nesse novo cenário, cibercriminosos desenvolveram a primeira ameaça do país com foco no Facebook.
De acordo com a Kaspersky Lab, que descobriu a ameaça, o código é distribuído por meio de um ataque dedrive-by-download, no qual uma página falsa é preparada para enganar e infectar o usuário com o download de um aplicativo malicioso.
De acordo com a Kaspersky Lab, que descobriu a ameaça, o código é distribuído por meio de um ataque dedrive-by-download, no qual uma página falsa é preparada para enganar e infectar o usuário com o download de um aplicativo malicioso.
Imagem: Kaspersky Lab
Caso o usuário caia no golpe e execute o programa, o worm se instala no sistema e faz o download de outros arquivos maliciosos, incluindo trojans especializados em roubar credenciais de acesso a Internet Banking. O programa nocivo, identificado pela Kaspersky como "IM-Worm.Win32.FBook.a", também baixa malwares que capturam logins e senhas de acesso do Facebook, Twitter e Orkut.
Para se disseminar, a aplicação envia, aos contatos da vítima, uma mensagem com o link de download no chat da própria rede. O texto com a URL perigosa também pode ser encaminhado para os perfis no Orkut, Twitter e ainda nos serviços de mensagem instantânea GTalk e MSN.
Para se disseminar, a aplicação envia, aos contatos da vítima, uma mensagem com o link de download no chat da própria rede. O texto com a URL perigosa também pode ser encaminhado para os perfis no Orkut, Twitter e ainda nos serviços de mensagem instantânea GTalk e MSN.
""
Imagem: Kaspersky Lab
Imagem: Kaspersky Lab
“A popularização da rede fará com que os ataques passem a ser concentrados no Facebook. Esse será o primeiro de muitos outros que virão”, prevê o analista de malware da Kaspersky Lab no Brasil e descobridor do novo worm, Fábio Assolini. Segundo o analista, o alcance da praga é baixo até o momento. “Registramos infecções de usuários no Brasil e em Portugal, mas o número de vítimas é pequeno porque reportamos o problema ao Facebook, que tem bloqueado o link”, assegura.
quinta-feira, 26 de abril de 2012
PHP CMD LINUX OU WINDOWS
UM simples php que envias comando para o cmd da maquina seja unix ou server windows coisa simples só pra estudo
sexta-feira, 30 de março de 2012
Como criar uma estrutura de URLs compatível com o Google
Como criar uma estrutura de URLs compatível com o Google
A estrutura de URLs de um site deve ser a mais simples possível. Considere a organização do seu conteúdo de forma que os URLs sejam construídos logicamente e da maneira mais compreensível para os usuários (quando possível, use palavras legíveis no lugar de longos números de ID). Por exemplo, se estiver procurando informações sobre aviação, um URL como http://en.wikipedia.org/wiki/Aviation ajudará você a decidir se desejar clicar nesse link. Um URL como http://www.exemplo.com.br.br/indice.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1 é menos atraente para usuários.
Use pontuação em seus URLs. O URLhttp://www.exemplo.com.br/vestido-verde.html é mais útil para nós quehttp://www.exemplo.com.br/vestidoverde.html Recomendamos que você use hífens (-) em vez de sublinhados (_) em seus URLs.
URLs muito complexos, especialmente os que contém vários parâmetros, podem causar problemas para os rastreadores, criando números desnecessariamente altos de URLs que apontam para um conteúdo idêntico ou semelhante em seu site. Como resultado, o Googlebot pode consumir mais largura de banda do que o necessário, ou pode não indexar completamente todo o conteúdo do site.
Causas comuns desse problema
Um número desnecessariamente alto de URLs pode ser causado por vários problemas. Entre eles:
- Filtragem aditiva de um conjunto de itens Vários sites oferecem diferentes modos de exibição do mesmo conjunto de itens ou resultados de pesquisa, e muitas vezes permitem que o usuário filtre esse conjunto usando um critério definido (por exemplo: mostre me hotéis na praia). Quando os filtros podem ser combinados de maneira aditiva (por exemplo: hotéis na praia e com academia de ginástica), o número de URLs (modos de exibição de dados) nos sites explodirá. A criação de um grande número de listas de hotéis com diferenças sutis é redundante, pois o Googlebot precisa ver somente um número pequeno de listas a partir das quais ele pode atingir a página de cada hotel. Por exemplo:
- propriedades do hotel em "classificações de valor":
http://www.exemplo.com.br/resultados-de-pesquisa-hotel.jsp?Ne=292&N=461
- Propriedades do hotel em "classificações de valor" na praia:
http://www.exemplo.com.br/resultados-de-pesquisa-hotel.jsp?Ne=292&N=461+4294967240
- Propriedades do hotel em "classificações de valor" na praia e com sala de ginástica:
http://www.exemplo.com.br/resultados-de-pesquisa-hotel.jsp?Ne=292&N=461+4294967240+4294967270
- propriedades do hotel em "classificações de valor":
- Geração dinâmica de documentos. Isso pode resultar em pequenas alterações por causa dos contadores, registros de hora ou anúncios.
- Parâmetros problemáticos no URL.As IDs de sessão, por exemplo, podem criar uma imensa quantidade de duplicação e um número maior ainda de URLs.
- Classificando parâmetros.Alguns grandes sites de compra oferecem várias maneiras de classificar alguns itens, o que resulta em um número muito maior de URLs. Por exemplo:
http://www.exemplo.com.br/resultados?pesquisa_tipo=pesquisa_videos&pesquisa_consulta=tpb&pesquisa_classificar=relevancia&pesquisa_categoria=25
- Parâmetros irrelevantes no URL, como parâmetros de referência. Por exemplo:
http://www.exemplo.com.br/pesquisa/semcabecalhos?clique=6EE2BF1AF6A3D705D5561B7C3564D9C2&cliquepagina=OPD+Produto+Pagina&cat=79
http://www.exemplo.com.br/discussao/mostrarthread.php?referrerid=249406threadid=535913
http://www.exemplo.com.br/produtos/produtos.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessorios.
- Problemas de agenda. Uma agenda gerada de maneira dinâmica pode gerar links para datas passadas e futuras sem restrições quanto às datas de início ou final. Por exemplo:
http://www.exemplo.com.br/agenda.php?d=13&m=8&y=2011
http://www.exemplo.com.br/agenda/cgi?2008mes=jan
- Links relativos quebrados.Links relativos quebrados muitas vezes causam espaços infinitos. Geralmente, esse problema ocorre devido a elementos de caminhos repetitivos. Por exemplo:
http://www.exemplo.com.br/indice.shtml/discussao/categoria/escola/061121/html/entrevista/categoria/saude/070223/html/categoria/business/070302/html/categoria/comunidade/070413/html/FAQ.htm
Para evitar possíveis problemas com a estrutura do URL, é recomendável fazer o seguinte:
- Considere usar um arquivo robots.txt para bloquear o acesso do Googlebot a URLs problemáticos. Normalmente, você deve bloquear os URLs dinâmicos, como aqueles que geram resultados de pesquisa que podem criar espaços infinitos, como agendas. O uso de expressões comuns em seu arquivo robots.txt pode permitir que você bloqueie um grande número de URLs facilmente.
- Sempre que possível, evite usar IDs de sessão em URLs. Em vez disso, use cookies. Para obter mais informações, consulte nossas Diretrizes para webmasters.
- Sempre que possível, abrevie URLs extinguindo parâmetros desnecessários.
- Se o seu site tiver uma agenda infinita, inclua um atributo "nofollow" aos links para páginas de agenda criadas de maneira dinâmica no futuro.
- Verifique se há links relativos quebrados em seu site.
Otimização de sites para Mecanismos de Pesquisa (SEO)
Otimização de sites para Mecanismos de Pesquisa (SEO)
- Guia do Google para Iniciantes -
Bem-vindo ao Guia do Google para Iniciantes em Otimização de sites para Mecanismos de Pesquisa.
Este documento começou como um esforço para ajudar equipes dentro do Google, mas pensamos
que seria igualmente útil para webmasters iniciantes no assunto e que pretendam melhorar a
interação de seus sites com usuários e mecanismos de pesquisa. Embora este guia não lhe contará
quaisquer segredos que façam com que seu site seja automaticamente classificado como primeiro
resultado nas pesquisas no Google (desculpe!), utilizar as práticas recomendadas definidas abaixo irá
facilitar aos mecanismos de pesquisa rastrear e indexar o seu conteúdo.
A Otimização para Mecanismos de Pesquisa pode muitas vezes se resumir a pequenas modificações
em partes do seu site. Quando vistas isoladamente, essas mudanças podem parecer como uma
pequena melhoria, mas quando combinadas com outras otimizações, podem representar um impacto
significativo na experiência do usuário e no desempenho nos resultados de pesquisa orgânica. Você
provavelmente já está familiarizado com muitos dos tópicos abordados este guia, pois eles são os
ingredientes básicos para páginas da web, mas talvez não esteja obtendo o máximo proveito deles.
Otimizar para Mecanismos de Pesquisa afeta apenas os resultados da pesquisa orgânica,
não alterando os resultados pagos ou "patrocinados", tais como o Google AdWords
Otimização de sites para Mecanismos de Pesquisa (SEO) - Guia do Google para IniciantesApesar de este guia conter as palavras "mecanismo de pesquisa", gostaríamos de salientar que você
deveria basear suas decisões de otimização tendo em vista primeiramente e principalmente o que é
melhor para os visitantes de seu site. Eles são os principais consumidores do seu conteúdo e estão
usando os mecanismos de pesquisa para encontrar o seu trabalho. Um enfoque demasiado estrito
em ajustes específicos para obter melhor classificação nos resultados orgânicos dos mecanismos de
pesquisa pode causar resultados indesejados. Otimizar para mecanismos de pesquisa significa dar
relevância ao que seu site tem de melhor no quesito visibilidade nos mecanismos de pesquisa.
Para ajudar nas explicações, criamos um site fictício que nos acompanhará durante todo o guia. Para
cada tópico, apresentaremos a informação necessária sobre o site para ilustrar o tópico abordado.
Veja aqui algumas informações sobre o site que usaremos:
● Website/Nome do negócio: "Brandon's Baseball Cards" (Figurinhas de Beisebol de Brandon)
● Nome do domínio: brandonsbaseballcards.com
● Foco: Venda online de figurinhas de beisebol, tabela de preços, artigos e notícias
● Tamanho: Pequeno, aproximadamente 250 páginas
O seu site pode ser menor ou maior do que este e oferecer conteúdo completamente diferente, mas
os temas de otimização que discutiremos a seguir são aplicável a sites de todos os tipos e tamanhos.
Esperamos que nosso guia lhe proporcione algumas idéias novas sobre como melhorar o seu site, e
adoraríamos ouvir suas perguntas, comentários e histórias de sucesso no Grupo de Ajuda a
Webmasters do Google.
Assinar:
Postagens (Atom)