quarta-feira, 10 de junho de 2009

Pane na rede da Telefônica provoca "caladão" em São Paulo

Depois de sofrer com problemas técnicos na infraestrutura de banda larga, a concessionária registrou pela primeira vez, na manhã desta terça-feira, 09/06, uma grave pane no serviço de voz, provocada por "uma falha humana cometida pela equipe de um fornecedor que presta serviços na rede da empresa", segundo comunicado oficial emitido às 20h. Milhares de usuários foram prejudicados.

No início da tarde, o presidente da Telefonica, Antonio Carlos Valente, já havia informado que os problemas foram em equipamentos instalados nos pontos de transferência de sinalização.

Segundo a empresa, em 95% dos casos o serviço já foi totalmente normalizado. Mas clientes empresariais e que portaram seus números para outras operadoras ainda enfrentam dificuldades. Em relação a esses problemas, a empresa informa que suas equipes técnicas continuam trabalhando e assim permanecerão ao longo da noite, para que sejam resolvidos o mais rapidamente possível.

Em julho do ano passado, São Paulo viveu os "dias em que a Internet parou", em função da falha do Speedy, serviço de banda larga, originada,segundo a operadora, por um roteador, que desencadeou um efeito-dominó e atingiu toda a rede de acesso. Nesta terça-feira, 09/06, foi a vez de usuários de São Paulo viverem o dia do "caladão". O problema começou a ser detectado logo cedo.


Por volta das 10 horas da manhã, a Telefônica lançou uma nota oficial, confirmando o problema, mas sem identificar ainda a causa. No horário do almoço, o presidente da operadora, Antonio Carlos Valente, numa entrevista ao SPTV, da TV Globo, informou que o 'caladão' foi provocado por falhas em equipamentos instalados nos pontos de transferência de sinalização.

A concessionária possui três na capital paulista - nos bairros de Perdizes, Liberdade e Ibirapuera - e três no interior do estado - Americana, Campinas e Araraquara. "Houve problemas nesses equipamentos e eles geraram impacto em quase todas as chamadas no Estado", admitiu Valente.

Com relação ao ressarcimento dos usuários, o presidente da Telefônica enfatizou que a operadora cumprirá as regras e a lei. "Vamos ressarcir todos os usuários prejudicados. A telefônica conhece as regras, conhece as leis e as aplica", completou. Até este momento, segundo ainda a operadora, 95% dos serviços tinham sido reestabelecidos.

Por volta das 15 horas, quase seis horas depois da pane, a Telefônica informou, em outro comunicado, que ainda trabalhava para normalizar os serviços de alguns clientes corporativos e usuários que realizaram a portabilidade numérica de/para outras redes diferentes da rede da Telefônica, que podem ter sofrido consequências decorrentes do não completamento de chamadas.

No mesmo informe, a operadora garantia que tinha sido "totalmente restabelecido o completamento de chamadas no tráfego local, de longa distância nacional e internacional, ligações para telefones 0800 e call centers e o acesso a outras redes, como, por exemplo, a rede de celulares". Apesar da entrevista concedida por Valente à TV Globo, a operadora enfatizava ainda buscar as causas do problema e da falha do serviço.

A Anatel se manifestou apenas uma vez - logo quando o problema começou a mobilizar a imprensa. A Agência reguladora divulgou uma nota oficial. Nela, revelava "extrema preocupação com a situação". Mas ao longo do dia, não mais se pronunciou. Leia abaixo, o informe da Anatel.

P>Anatel: Comunicada pelo presidente da Telefônica e investiga com 'extrema preocupação"

Em nota oficial, a Agência Nacional de Telecomunicações (Anatel) informa que acompanha com extrema preocupação as falhas nos serviços de telefonia fixa (Local e Longa Distância Nacional e Internacional) prestados pela Telesp (Telefônica), registradas a partir das 9 horas desta terça-feira, 09/06. A instabilidade no sistema provoca o não completamento de chamadas e abrange todo o estado de São Paulo.

A Agência foi informada da ocorrência pelo presidente da Telefônica, Antônio Carlos Valente da Silva. Os agentes de fiscalização do Escritório Regional de São Paulo trabalham em regime de urgência na verificação não só das causas, mas do alcance das conseqüências da paralisação, de modo a garantir a qualidade dos serviços prestados e a adequada confiabilidade das redes de telecomunicações. Apurada a ocorrência, a Anatel tomará as providências no sentido de assegurar os direitos dos usuários.

(Convergência Digital)


terça-feira, 9 de junho de 2009

Linha do tempo: Unix completa 40 anos

Framingham - Conheça os fatos que marcaram a história de um dos sistemas operacionais mais importantes da indústria da tecnologia.

A história de quatro décadas do Unix é marcada por muitos pontos de virada e fatos que determinaram seu rumo na indústria. Conheça alguns dos acontecimentos mais relevantes ao longo desta trajetória.

1956 - Um decreto do Departamento de Justiça norte-americano proibiu a empresa AT&T de se dedicar a outro negócio que não fosse infraestrutura de serviços de comunicação.

1969 - Em março, os laboratórios Bell, pertencentes à AT&T, desistem de desenvolver o Multics, conceito de servidores complexos que poderiam ser acessados por terminais em diversos pontos. Mas alguns dos mais importantes princípios do Multics seriam transportados para a linguagem Unix.
Em agosto, Ken Thompson escreve a primeira versão de seu sistema operacional, em linguagem assembly, para o minicomputador DEC PDP-7. O desenvolvimento foi feito nos laboratórios Bell.

1970 - O sistema operacional de Thompson é batizado de Unics, siga para Uniplexed Information and Computing Services. Mais tarde, o nome é alterado para Unix.

1971 - Em fevereiro, o Unix passa a ser desenvolvido no minicomputador PDP-11, da Digital Equipment Corp. Em novembro, é lançada a primeira edição do “Manual do Programador Unix”, escrito por Ken Thompson e Dennis Ritchie.

1972 - Dennis Ritchie desenvolve a linguagem de programação C.

1973 - O Unix ganha mais maturidade com um mecanismo para compartilhamento de informação entre dois programas, funcionalidade que iria influenciar sistemas operacionais por décadas. Além disso, o sistema operacional é reescrito na linguagem C.

1974 - Em Janeiro, a Universidade da Califórnia, em Berkeley, recebe uma cópia do Unix.
Em Julho, Dennis Ritchie e Ken Thompson escrevem um artigo sobre o Unix que é publicado no jornal mensal da Association for Computing Machinery (ACM). Os autores o classificam como um sistema operacional para diversos fins, multiusuário e interativo.

1976 - Mike Lesk, programador dos Laboratórios Bell, desenvolve o UUCP (Programa de cópia Unix para Unix) para transferência de arquivos, e-mail e conteúdo Usenet dentro da rede.

1977 - Pela primeira vez o Unix é colocado em um hardware que não é da marca DEC. A novidade era o recebimento do sistema por novos equipamentos: Interdata 8/32 e IBM 360.

1978 - Bill Joy, estudante graduado pela Berkeley, distribui cópias do sistema operacional Berkeley Software Distribution (1BSD) com algumas funções adicionais. O principal rival dessa distribuição é o Unix da AT&T. Suas variantes incluem sistemas como FreeBSD, NetBSD, Open BSD, DEC Ultrix, SunOS, NeXTstep/OpenStep e Mac OS X.

1980 - O 4BSD torna-se a primeira versão do Unix a incorporar o protocolo TCP/IP.

1982 - Bill Joy se torna um dos fundadores da Sun Microsystems, empresa focada em produção de estações de trabalho baseada em Unix.

1983 - AT&T entrega a primeira versão do seu influente Unix System V, que se tornaria a base para o AIX da IBM e o HP-UX, da HP. Ken Thompson e Dennis Ritchie recebem prêmio da ACM pelo desenvolvimento de uma teoria de sistemas operacionais genéricos e pela implementação do Unix.
Richard Stallman anuncia planos para o sistema operacional GNU, sistema similar ao Unix, composto de software livre.

1984 - No encontro USENIX/UniForum, a AT&T apresenta sua política de suporte para o Unix. O X/Open Co., um consórcio europeu de fabricantes de computadores, é formado para padronizar o Unix de acordo com o guia de portabilidade X/Open.

1985 - AT&T publica as definições System V Interface Definition (SVID), uma tentativa de configurar um padrão para o funcionamento do Unix.

1986 - Rich Rashid e colegas na Universidade de Carnegie Mellon criam a primeira versão do Mach, um kernel substituto para o BSD Unix, com a intenção de criar um sistema operacional com boa portabilidade, segurança forte e que usa aplicações multiprocesso.

1987 - Os Laborarórios Bell e a Sun Microsystems anunciam planos de desenvolver em parceria um sistema que unificaria as duas principais distribuições Unix. Andrew Tanenbaum escreve o Minix, um Unix com código aberto, para ser utilizado em aulas de ciências da computação.

1988 - A “Guerra dos Unix” está em andamento. Em resposta à parceria firmada entre AT&T e a Sun, fornecedores rivais de Unix, incluindo DEC, HP e IBM, formam a Fundação de Software Livre (OSF). AT&T e seus parceiros resolvem contra-atacar formando o grupo Unix International. O IEEE, organização voltada para representar profissionais de tecnologia, também cria um conjunto de padrões para Unix, chamado Posix (Portable Operating System Interface for Unix).

1989 - Os Laboratórios Unix Systems, subsidiária dos Laboratórios Bell, lançam o System V Release 4 (SVR4), uma colaboração com a Sun que unifica System V, BSD, SunOS e Xenix.

1990 - O OSF lança uma resposta ao SVR4, o OSF/!, baseado em Mach e BSD.

1991 - A Sun Microsystems anuncia o lançamento do Solaris, sistema operacional baseado no SVR4
Linus Torvalds escreve o Linux, um kernel de sistema operacional aberto inspirado no Minix.

1992 - O kernel Linux é combinado com o GNU para a criação do sistema operacional GNU/Linux, que passou a ser conhecido no mundo inteiro simplesmente como Linux.

1993 - AT&T vende sua subsidiária Unix System Laboratórios e todos os direitos do Unix para a Novell. No mesmo ano, a Novell transfere a marca Unix para o grupo X/Open. A Microsoft apresenta o Windows NT, sistema de 32-bit para multiprocessamento. Com medo do NT, os envolvidos em UNIX começam a se esforçar para obter uma melhor padronização.

1994 - A NASA inventa o conceito de computação Beowulf, baseado em clusters baratos que rodam Unix ou Linux em uma rede TCP/IP.

1996 - X/Open se funde com a Open Software Foundation para formar o The Open Group.

1999 - O então presidente norte-americano Bill Clinton concede a Ken Thompson e Dennis Ritchie a medalha nacional da tecnologia pelo trabalho que desenvolveram nos Laboratórios Bell.

2002 - O Open Group anuncia a Versão 3 das especificações únicas para Unix (Single UNIX Specification, antes conhecida como Spec 1170).

(Computerworld, EUA)

Confira dicas para usar com segurança sites de computação nas nuvens

O que aconteceria se todas as suas mensagens de e-mail armazenadas no provedor do serviço desaparecessem neste instante? Com o aprimoramento dos webmails, dispensa-se o velho “Outlook Express” – ou qualquer outro cliente de e-mail – para usar a acesso pelo navegador; ou ainda, usa-se o protocolo IMAP, que muitas vezes não armazena localmente nenhuma cópia completa das mensagens. E a tendência expande-se para fotos no Flickr, vídeos no YouTube, discos virtuais e outros. Sem falar no pânico que invade a web quando o Google “cai” – sinal claro de uma dependência nos serviços on-line.

Com a informação armazenada nesses locais remotos, como mantê-las seguras e disponíveis? A coluna Segurança para o PC de hoje é dedicada aos programas de “computação nas nuvens”.

Se você tem alguma dúvida sobre segurança da informação (antivírus, invasões, cibercrime, roubo de dados, etc), vá até o fim da reportagem e utilize a seção de comentários. A coluna responde perguntas deixadas por leitores todas as quartas-feiras.

>>> (Saber o quanto) confiar é básico

O especialista em segurança Bruce Schneier foi questionado a respeito dos desafios de segurança na computação nas nuvens. “Não é nada novo, é o velho sistema cliente-servidor”, disse, e continuou: “fundamentalmente, quando lidamos com computadores em qualquer forma, você precisa confiar em seus fornecedores. Seja seu fornecedor de sistema operacional, seu fornecedor de aplicativos ou seu fornecedor de serviço. Eles precisam criar o hardware ou software de maneira segura e, se não o fizerem, você está ferrado”, sentenciou.

Mas o que define um serviço confiável e como determinar se podemos confiar nele ou não?

“Disponibilidade”, “Integridade” e “Confidencialidade” – alguns especialistas ainda adicionam “Autenticidade”, para formar o acrônimo “DICA” – são os pilares da segurança da informação. E são perfeitamente aplicáveis aos serviços de computação nas nuvens.

“Disponibilidade” refere-se à estabilidade do serviço. Ele cai ou apresenta erros com frequência? Perde dados? Se sim, cai também o fator disponibilidade. “Integridade” é você saber que seus arquivos não são alterados ou corrompidos. “Confidencialidade” é garantir que os dados particulares não sejam roubados ou acessados de forma indevida.

São esses quesitos que indicam o nível de confiabilidade de um serviço. Quanto maior a disponibilidade, integridade e confidencialidade ofertada, mais seguro e confiável o serviço é.

Qualquer serviço está propenso a falhas, então a questão é descobrir o quanto podemos confiar nos serviços e quais cuidados precisamos tomar. De modo geral, os serviços web são – bem provavelmente – mais seguros do que o seu próprio computador, porque seu PC também pode sofrer ataques e problemas de hardware, como uma falha de disco de rígido. Por outro lado, os serviços on-line são também alvos mais interessantes para criminosos, pois armazenam um número elevado de informações.

A coluna preparou algumas dicas para ajudar a escolher bons serviços de computação nas nuvens e tomar os devidos cuidados durante o seu uso.

>>> Política de privacidade

A política de privacidade de qualquer site explica como a empresa responsável pela página cuida das suas informações e pode ajudá-lo a determinar parte do fator confidencialidade. Pela política de privacidade é possível descobrir se as informações são vendidas ou compartilhadas, por exemplo. Você, provavelmente, não quer isso.

O texto da política de privacidade pode ser bem chato de ser lido. Mas, se você vai escolher um serviço, vale a pena conhecê-lo bem.

>>> Se você não quer algo publicado, criptografe ou não faça upload

Tem uma foto que você realmente não quer que ninguém veja, mas pensou em fazer upload “só para amigos” ou até só para você mesmo? Isso pode não ser uma boa ideia. Além de invasões no banco de dados do serviço, você também pode ter a sua conta de acesso roubada, o que permitirá que o indivíduo mal-intencionado acesse qualquer arquivo “particular”.

Uma alternativa, principalmente no caso de discos virtuais, é o uso de criptografia. Com a criptografia, você garante que o arquivo está protegido mesmo no caso de uma invasão ao serviço. É preciso tomar cuidado para não perder as senhas ou certificados necessários para decodificar os arquivos depois!

Um simples arquivo ZIP com uma senha boa pode ser uma proteção decente. Se for algo realmente importante, procure usar algo melhor, como o GPG. Lembre-se de usar uma senha diferente para acesso ao serviço e para a criptografia dos arquivos, ou a proteção extra será perdida.

>>> Acesso por meio de computadores públicos

Talvez você confie bastante no fornecedor do serviço on-line, mas você pode confiar em qualquer LAN house ou cibercafé? Provavelmente não. A rede pode ter sido grampeada por meio de “sniffers” – como são chamados os programas que analisam o tráfego em busca de informações sigilosas – ou pode haver códigos maliciosos instalados no PC para roubar suas senhas de acesso.

Se você tem um notebook ou netbook com o qual usa redes sem fio públicas, também pode ser uma ideia esperar até encontrar uma rede melhor.

>>> Não mantenha arquivos e programas importantes apenas on-line

Pode até ser que sua conta de e-mail não vá desaparecer imediatamente como a coluna questionou no início – embora alguns internautas azarados já tenham passado por isso, segundo relatos na rede. Outros problemas menores, no entanto, podem impedi-lo de acessar seus arquivos armazenados “nas nuvens”. Pode ser uma falha temporária no serviço, na internet, no seu provedor ou até na sua própria conexão (digamos, alguém roubou os cabos da rua, ou a companhia de telefone sofre um incêndio).

Haverá um grande problema se aquele documento que você precisa entregar estiver apenas disponível como anexo em um e-mail ou foi armazenado em um disco virtual.

É uma ótima ideia, sempre que possível, manter uma cópia do arquivo também no seu computador ou em qualquer outra mídia, seja um pen drive, um DVD, enfim. O importante é que você não dependa exclusivamente do serviço on-line para acessar seus arquivos. Muitas coisas podem dar errado!

No caso de aplicativos, mesmo que você queira usar um editor de fotos on-line, não dispense a instalação de um programa local com as mesmas funções, pelo menos no caso de absoluta necessidade. Especialmente para netbooks, que não dispõem de grande espaço em disco, os aplicativos on-line são muito úteis. Mas muitos programas mais simples podem ser colocados em pen drives. Ter alguma garantia vai parecer inútil até que, mais cedo ou mais tarde, você vai descubra o valor de ter se prevenido.

Agora que você já sabe quais cuidados tomar ao usar serviços on-line, basta pesquisar na web ou conferir esta reportagem do G1, indicando vários serviços e aplicativos de computação nas nuvens. Bom proveito!

Por hoje é só. A coluna volta na quarta-feira (10) para responder dúvidas deixadas na seção de comentários. Se você tem alguma pergunta ou sugestão de pauta, basta preencher o formulário logo abaixo. Todos os comentários são lidos. Até a próxima!

* Altieres Rohr é especialista em segurança de computadores e, nesta coluna, vai responder dúvidas, explicar conceitos e dar dicas e esclarecimentos sobre antivírus, firewalls, crimes virtuais, proteção de dados e outros. Ele criou e edita o Linha Defensiva, site e fórum de segurança que oferece um serviço gratuito de remoção de pragas digitais, entre outras atividades.

(G1)


sexta-feira, 5 de junho de 2009

'Detetives' da web se mobilizam para caçar criminosos virtuais

A partir da esquerda: Ronald J. Deibert, Greg Walton, Nart Villeneuve e Rafal A. Rohozinski, especialistas em segurança na internet (Foto: Tim Leyes/The New York Times)

Especialistas investigam invasão e quebra de privacidade na China.
Analista lidera dois grupos na Universidade de Toronto, no Canadá.

Para os detetives da velha guarda, o problema sempre era adquirir informações. Para aqueles da versão cibernética, os capazes de coletar as evidências na confusão de dados da internet, o problema é outro.

“O cálice sagrado é saber como diferenciar as informações inúteis das valiosas”, disse Rafal Rohozinski, cientista social formado pela Universidade de Cambridge e envolvido em questões de segurança virtual.

Oito anos atrás, ele fundou dois grupos, o Information Warfare Monitor e o Citizen Lab, ambos montados na Universidade de Toronto e contando com a parceria de Ronald Diebert, um cientista político de lá. Os grupos perseguem esse cálice sagrado e esforçam-se para colocar ferramentas investigativas, normalmente reservadas a agências da lei e investigadores de segurança de computadores, a serviço de grupos que não possuem tais recursos.

“Achamos que falta capacidade de inteligência a grupos de sociedade civil”, disse Diebert.

Eles obtiveram alguns importantes sucessos. No ano passado, Nart Villeneuve, de 34 anos, um pesquisador de relações internacionais que trabalha para os dois grupos, descobriu que uma versão chinesa do software Skype era usada para violar a confidencialidade de conversas dadas através de uma das maiores operadoras wireless da China, provavelmente em benefício das agências chinesas de imposição da lei.

Neste ano, Villeneuve ajudou a revelar um sistema espião, conhecido como Ghostnet por sua equipe, que parecia uma operação de espionagem gerenciada pelo governo da China em computadores de propriedade do governo sul-asiático de todo o mundo.

As duas descobertas foram o resultado de um novo gênero de trabalho detetivesco, e ilustram os pontos fortes e os limites do trabalho de detetive no espaço cibernético.

C:\Meus documentos\Dalai lama

O caso Ghostnet começou quando Greg Watson, editor da Infowar Monitor e membro da equipe de pesquisa, foi convidado para o cargo de auditor da rede do escritório do Dalai lama, em Dharamsala, na Índia. Sob constantes ataques – possivelmente vindos de hackers financiados pelo governo chinês –, os exilados haviam se voltado aos pesquisadores canadenses em busca de ajuda para combater as ameaças cibernéticas. Os espiões digitais foram plantados em seu sistema de comunicações durante muitos anos.

Tanto no escritório particular do Dalai Lama, quanto na base do governo tibetano exilado, Watson usou um poderoso software – conhecido como Wireshark – para capturar o tráfego virtual de entrada e saída dos computadores do grupo.

O Wireshark é um software de código livre disponibilizado gratuitamente a investigadores de segurança em computadores. Ele se destaca pela simplicidade de uso e por sua habilidade de classificar e decodificar centenas de protocolos comuns de internet, usados em diferentes tipos de comunicações de dados. Ele é conhecido como um farejador. Esse tipo de software é essencial para detetives que rastreiam criminosos e espiões cibernéticos.

O Wireshark torna possível assistir a uma sessão não-criptografada de bate-papo na internet em tempo real, ou no caso da pesquisa de Watson na Índia, observar o momento em que os malfeitores virtuais copiavam arquivos da rede do Dalai Lama.

Em quase todos os casos, quando os administradores do sistema Ghostnet assumiam controle de um computador remoto, eles instalavam um software clandestino, criado pelos chineses, chamado GhOst RAT – sigla em inglês para Terminal de Administração Remota. O GhOst RAT permite o controle de um computador distante via internet, chegando a ser capaz de ligar recursos de gravação de áudio e vídeo e capturar os arquivos resultantes. Os operadores do sistema – sejam quem fossem –, além de roubarem arquivos digitais e mensagens de e-mail, poderiam transformar PCs de escritório em postos de audição remota.

A espionagem foi de preocupação imediata aos Tibetanos, pois os documentos que estavam sendo roubados eram ligados a posições que os representantes políticos do Dalai Lama estavam planejando tomar em negociações nas quais o grupo estava envolvido.

Após retornar ao Canadá, Watson compartilhou seus dados capturados com Villeneuve e os dois usaram uma segunda ferramenta para analisar as informações. Eles carregaram os dados num programa de visualização oferecido ao grupo pela Palantir Technologies, uma empresa de software com um programa que permite a “fusão” de grandes grupos de dados para buscar correlações e ligações – que de outra forma passariam despercebidas.

A empresa foi fundada há vários anos por um grupo de tecnólogos pioneiros em técnicas de detecção de fraudes no PayPal, a empresa de pagamentos online do Vale do Silício. A Palantir desenvolveu uma ferramenta de reconhecimento de padrões que é usada por agências do governo e empresas financeiras. Os pesquisadores do Citizen Lab simplesmente a modificaram para adicionar funcionalidades específicas para dados de internet.

Villeneuve estava usando este software para visualizar arquivos de dados num porão da Universidade de Toronto quando percebeu uma série de 22 caracteres, aparentemente inócua, mas intrigante, recorrente em diferentes arquivos. Num palpite, ele digitou o grupo no mecanismo de busca do Google e foi instantaneamente redirecionado a arquivos similares, armazenados num enorme sistema de vigilância computadorizada localizado na Ilha de Hainan, na costa da China. Os arquivos tibetanos estavam sendo copiados para esses computadores.
Os pesquisadores não conseguiram determinar com segurança quem controlava o sistema. Ele pode ser uma criação de supostos hackers patriotas, ativistas independentes na China com ações alinhadas, porém independentes às do governo. Poderia também ter sido criado e administrado por espiões virtuais de um terceiro país.

Realmente, a descoberta levantou tantas questões quanto respondeu. Por que o poderoso sistema de espionagem não era protegido por senha, uma fraqueza que facilitou o trabalho de Villeneuve em descobrir seu funcionamento? Por que, entre os mais de 1.200 computadores comprometidos, representando 103 países, não havia um só sistema do governo dos Estados Unidos? Essas dúvidas permanecem.

Pensando fora da rede

A criminalística cibernética apresenta imensos desafios técnicos, complicados pelo fato de que internet expande facilmente as fronteiras de qualquer governo. É possível para um criminoso, por exemplo, ocultar suas atividades conectando-se a um computador-alvo através de uma série de terminais inocentes, cada um conectado à internet em diferentes continentes. Isso torna as investigações da lei trabalhosas ou até mesmo impossíveis.

A questão mais preocupante enfrentada, tanto pela lei quanto por outros investigadores do espaço cibernético, é esse problema da “atribuição”. O famoso cartum da revista New Yorker, onde um cachorro, sentado sobre um teclado de computador, aponta a um companheiro e diz, “Na internet, ninguém sabe que você é um cachorro”, não é nenhuma piada para os detetives cibernéticos.

Para lidar com o desafio, os pesquisadores de Toronto estão buscando o que descrevem como uma metodologia de fusão, na qual eles examinam dados da internet no contexto de acontecimentos do mundo real.

“Tivemos um forte palpite de que, para compreender o que acontecia no espaço cibernético, precisávamos coletar dois grupos completamente diferentes de dados”, disse Rohozinski. “Por outro lado, precisávamos também de dados técnicos gerados de arquivos de anotações da internet. O outro componente é tentar compreender o que está acontecendo no mundo virtual entrevistando pessoas, e entendendo como as instituições funcionam”.

Investigadores virtuais veteranos concordam que os melhores detetives de dados precisam ir além da internet. Eles podem até precisar usar luvas de couro.

“Não podemos ficar míopes acerca de nossas ferramentas”, disse Kent Anderson, investigador de segurança e membro do comitê de gerenciamento de segurança da Associação de Controle e Auditoria de Sistemas de Informações. “Eu constantemente me deparo com bons tecnólogos. Eles sabem como usar os softwares, mas não compreendem como suas ferramentas se encaixam no cenário mais amplo da investigação”.