Projeto de Lei 3301/2004 – Acesso à Internet

Notícias interessantes pululam na Internet… Dentro em breve comentarei sobre isso no Ctrl-C.

Câmara vai analisar registro de navegação na web

Renata Mesquita, do Plantão INFO

A Câmara dos Deputados criará uma comissão especial ainda neste semestre para analisar o Projeto de Lei que obriga os provedores a manterem, pelo prazo de um ano, os registros das conexões realizadas por seus clientes.

A proposta 5403/01, do Senado, também determina que as operadoras de telefonia só podem liberar linhas aos provedores que comprovarem capacidade técnica e prevê a criação, pelos provedores, de um cadastro com as informações pessoais dos usuários – identificação civil, CPF e endereço, com anotação de data e horário de cada acesso feito ao sistema.

Estas informações, que serviriam como apoio em investigações criminais, por exemplo, só poderão ser fornecidas a quem quer que seja mediante autorização judicial, conta a Agência Câmara.

A comissão a ser formada vai aproveitar para analisar outras 12 propostas relacionadas com o PL 5403/01. Entre elas está o PL 3301/04, do deputado Marcos Abramo (PFL-SP), que define responsabilidades para os provedores de acesso e cria regras para o registro de usuários da internet. Os provedores deverão elaborar, executar e fiscalizar o cumprimento de uma nova política de segurança que regulamentará as atividades do setor, e os usuários deverão ser informados, em contrato, de seu conteúdo. O projeto prevê ainda a criação de penalidades para os internautas e os provedores que praticarem ações ilícitas.

Outros destaques da lista são o PL 6557/02, do deputado Valdemar Costa Neto (PL-SP), que determina a identificação dos participantes de salas de encontro virtual e troca de imagens; e o PL 1256/03, do deputado Takayama (PMDB-PR), que exige a identificação dos participantes com acesso a salas de encontros virtuais de conteúdo sexual.

A comissão especial será composta por integrantes das comissões de Ciência e Tecnologia, Comunicação e Informática; Seguridade Social e Família; Segurança Pública e Combate ao Crime Organizado; Trabalho, Administração e Serviço Público; e Constituição e Justiça e de Cidadania. Após ser votado pela comissão, o projeto, que tramita em caráter de urgência, seguirá para a apreciação do Plenário da Casa.

E, aqui, na íntegra, um dos Projetos de Lei acima citados:

Projeto de Lei: Dispõe sobre normas de acesso à Internet.
Fonte: Câmara dos Deputados
07/04/2004
PL-3301/2004

PROJETO DE LEI Nº , DE 2004

(Do Sr. MARCOS ABRAMO)

Dispõe sobre normas de acesso à Internet.

O Congresso Nacional decreta:

Art. 1º Esta Lei estabelece normas de operação e uso da Internet, definindo responsabilidades dos provedores do serviço de acesso à rede e determinando regras para registro do acesso de usuários à Internet.

Parágrafo único. Subordinam-se ao regime desta Lei todos os provedores dos serviços de acesso à Internet, sejam eles abertos ao público em geral ou não.

Art. 2º O órgão do Poder Executivo responsável pelo estabelecimento de diretrizes estratégicas relacionadas ao uso e desenvolvimento da Internet no Brasil deverá regulamentar as atividades desempenhadas pelos provedores do serviço de acesso à rede.

Art. 3º O provedor do serviço de acesso à Internet deverá elaborar, executar e fiscalizar o cumprimento de política de segurança que deverá conter regras sobre o uso da rede, obrigando-se a dar ciência dela a seus usuários.

§ 1º Os procedimentos constantes da política de segurança deverão ser previstos no contrato firmado entre o usuário do serviço e o provedor.

§ 2º A política de segurança deverá estabelecer regras de conduta para os usuários dos serviços prestados pelo provedor.

§ 3º O documento que contiver a política de segurança adotada pelo provedor deverá esclarecer ao usuário sobre as penalidades aplicáveis na legislação vigente no caso da prática de ações ilícitas, sejam elas cometidas pelo provedor ou pelo usuário.

§ 4º O descumprimento ao disposto neste artigo sujeitará o provedor do serviço de acesso à Internet à multa de até cinquenta mil reais, acrescida de um terço em caso de reincidência.

Art. 4º O órgão de que trata o art. 2º desta Lei deverá elaborar e manter atualizado cadastro de sítios da Internet, hospedados no Brasil ou no exterior, que apresentem conteúdos que atentem contra a ordem legal vigente.

§ 1º Incluem-se entre os sítios de que trata o caput deste artigo aqueles que estimularem a prática de pedofilia, atos de terrorismo e tráfico de entorpecentes.

§ 2º A obrigação de que trata o caput deste artigo deverá ser cumprida sem prejuízo do encargo de comunicar às autoridades competentes os ilícitos verificados.

§ 3º O cadastro de que trata o caput deste artigo deverá ser fornecido gratuitamente, em formato de fácil acesso, a todos aqueles que o solicitarem.

§ 4º Os provedores do serviço de acesso à Internet deverão instalar dispositivos de segurança que bloqueiem o acesso dos seus usuários aos sítios que constarem do cadastro de que trata o caput deste artigo.

§ 5º O descumprimento ao disposto no § 4º deste artigo sujeitará o provedor do serviço de acesso à Internet à multa de até cinquenta mil reais, acrescida de um terço em caso de reincidência.

Art. 5º Os provedores do serviço de acesso à Internet deverão manter cadastro de seus usuários e registro dos acessos executados por eles.

§ 1º O cadastro deverá conter, no mínimo, as seguintes informações relativas a cada usuário:

I – nome ou razão social;

II – endereço com Código de Endereçamento Postal; e

III – número de registro no Cadastro de Pessoas Físicas ou no Cadastro Nacional de Pessoas Jurídicas do Poder Executivo.

§ 2º O registro dos acessos executados pelo usuário deverá conter, pelo menos, as seguintes informações referentes a cada acesso:

I – identificação do usuário;

II – data e hora de conexão e desconexão;

III – endereço de rede do usuário na transação; e

IV – código de acesso telefônico ou identificação do ponto de rede usado para executar a conexão.

§ 3º O provedor deverá preservar as informações relativas ao usuário pelo prazo mínimo de um ano após a desvinculação entre as partes.

§ 4º Os dados relativos aos acessos executados pelo usuário deverão ser mantidos pelo provedor pelo prazo mínimo de um ano contado a partir da sua ocorrência.

§ 5º As informações de que trata este artigo somente poderão ser fornecidas às autoridades competentes mediante determinação judicial.

§ 6º A informação de que trata o inciso III do § 1º deste artigo deverá ser validada junto ao órgão competente do Poder Executivo.

§ 7º O descumprimento ao disposto neste artigo sujeitará o provedor do serviço de acesso à Internet à multa de até dois mil reais a cada informação não registrada, acrescida de um terço em caso de reincidência.

Art. 6º Os estabelecimentos públicos que oferecerem acesso aos recursos da Internet à população em geral, tais como “cyber-cafés” e similares, deverão exigir previamente do usuário as seguintes informações, devidamente comprovadas:

I – nome;

II – endereço com Código de Endereçamento Postal; e

III – número de registro no Cadastro de Pessoas Físicas.

§ 1º Os dados referentes ao usuário, bem como a data e a hora de conexão e desconexão dos acessos executados por ele, deverão ser mantidos pelos estabelecimentos de que trata o caput deste artigo pelo prazo mínimo de um ano contado a partir de cada acesso efetuado.

§ 2º As informações de que trata este artigo somente poderão ser fornecidas às autoridades competentes mediante determinação judicial.

§ 3º O descumprimento ao disposto neste artigo sujeitará os estabelecimentos à multa de até dois mil reais a cada informação não registrada, acrescida de um terço em caso de reincidência.

Art. 7º Os órgãos e entidades da administração pública federal direta e indireta deverão instalar dispositivos de segurança em suas infra-estruturas de informática com o intuito de estabelecer restrições de acesso a sítios da Internet estranhos às atribuições de cada instituição.

Parágrafo único. O responsável pela política de segurança de informática de cada instituição deverá elaborar o cadastro de sítios cujo acesso será vedado a partir da utilização da infra-estrutura da entidade.

Art. 8º As escolas públicas e particulares de ensino fundamental e médio deverão instalar dispositivos de segurança em suas infra-estruturas de informática de modo a proibir o acesso a sítios da Internet com conteúdo impróprio ou inadequado para crianças e adolescentes.

§ 1º As instituições de que trata o caput deste artigo deverão elaborar cadastros de sítios cujo acesso deverá ser vedado a partir do uso das infra-estruturas dessas entidades.

§ 2º O descumprimento ao disposto neste artigo sujeitará os estabelecimentos particulares à multa de até cinquenta mil reais, acrescida de um terço em caso de reincidência.

Art. 9º Os sítios da Internet hospedados no País que contenham conteúdos impróprios ou inadequados para crianças e adolescentes deverão possuir dispositivos de segurança que permitam restringir o seu acesso.

§ 1º O acesso aos sítios de que trata o caput deste artigo somente poderá ser liberado aos usuários por meio da apresentação de senha individual ou de outro mecanismo seguro de identificação.

§ 2º Os sítios de que trata o caput deste artigo deverão manter cadastro contendo, no mínimo, as seguintes informações relativas a cada usuário:

I – nome;

II – endereço com Código de Endereçamento Postal;

III – número de registro no Cadastro de Pessoas Físicas; e

IV – endereço eletrônico para confirmação da senha de acesso ou de outros parâmetros de identificação do usuário.

§ 3º O descumprimento ao disposto neste artigo sujeitará os responsáveis pelo sítio à multa de até cinquenta mil reais, acrescida de um terço em caso de reincidência.

Art. 10. Constitui crime a divulgação ilícita das informações de que tratam os arts. 5º, 6º e 9º desta Lei, sujeitando o infrator à pena de um a dois anos de detenção.

Art. 11. Esta Lei entrará em vigor 120 (cento e vinte) dias após a sua publicação.

JUSTIFICAÇÃO

O crescimento assustador das ações ilícitas praticadas na rede mundial de computadores demanda do Poder Público a adoção de medidas urgentes no sentido de conter a explosão da criminalidade cibernética.

Uma das práticas mais nocivas e que prolifera de forma vertiginosa na Internet consiste na divulgação de imagens infantis pornográficas. De maneira similar, não é incomum encontrar sítios que apresentem conteúdos de estímulo à violência nas suas mais variadas formas. A situação revela-se particularmente preocupante se levarmos em consideração que as autoridades instituídas não dispõem de garantias legais plenas que permitam sua atuação desembaraçada perante os delitos informáticos.

Nesse sentido, um dos maiores problemas enfrentados pela Polícia Federal e demais órgãos competentes na apuração dos crimes virtuais decorre da dificuldade de enquadramento das condutas ilícitas praticadas na Internet, visto que o ordenamento jurídico vigente possui evidentes lacunas no que tange ao assunto. A principal consequência disso é que, apesar de todo esforço investigatório despendido pelas autoridades competentes, em muitas ocasiões não há meios disponíveis para que se possa punir aqueles que atentam contra a ordem legal no mundo dos computadores.

Portanto, é premente a necessidade de introdução de normas específicas para inibir as atividades criminosas na rede mundial de computadores. Por esse motivo, propomos o presente Projeto de Lei com o objetivo de criar mecanismos que permitam a ação preventiva e punitiva contra as condutas ilegais na Internet.

Em nossa proposição, estabelecemos regras de operação e uso da rede no País, bem como definimos responsabilidades para os provedores de acesso à Internet. Os dispositivos previstos no Projeto abrangem tanto os provedores de serviços abertos ao público em geral quanto aqueles cujos assinantes estejam restritos a uma determinada corporação, seja ela pública ou privada.

Dentre as obrigações dos provedores, incluem-se a elaboração e a execução de política de segurança específica de cada instituição, que deve ser levada a conhecimento de todos os usuários do serviço. Essa política deve prever, entre outros preceitos, as normas de conduta a serem seguidas pelos internautas. Ademais, ela deve fazer menção expressa às penalidades aplicáveis na legislação vigente no caso da prática de ações que contrariem a lei.

Com o intuito de regular as atividades desenvolvidas pelos provedores, atribuímos ao Poder Executivo, por meio do Comitê Gestor da Internet no Brasil – CGIbr – o encargo de regulamentar o serviço de provimento de acesso à Internet. Entre as competências do órgão, inclui-se a elaboração do cadastro de sítios que veiculam conteúdos atentatórios contra a ordem legal vigente. Salientamos que o instrumento não exclui a obrigação da entidade de comunicar às autoridades policiais os ilícitos verificados. Caberá aos provedores a instalação de dispositivos tecnológicos que bloqueiem o acesso de seus usuários aos sítios que constarem desse cadastro. Esse mecanismo impedirá a visita de páginas na Internet que possuam conteúdos ilegais, tais como aqueles que incentivem a pedofilia, o terrorismo e o tráfico de drogas.

No que diz respeito aos aspectos técnicos, não há grandes empecilhos para que os provedores implementem a regra proposta, visto que o mercado das tecnologias da informação já oferece diversas soluções capazes de impedir a comunicação com sítios pré-determinados.

Fazemos questão de ressaltar que o disposto na proposição apresentada não se confunde, de forma alguma, com a introdução da censura na Internet no Brasil, nem tampouco tem a intenção de estabelecer obstáculos ao desenvolvimento do segmento. A medida somente determina restrições de visitação aos sítios da rede mundial que estimularem práticas consideradas ilegais no País. Ao mesmo tempo em que não ameaça a liberdade de expressão na Internet, o dispositivo assegura a defesa do cidadão, da família e da sociedade contra a divulgação de conteúdos que ferem flagrantemente o ordenamento legal brasileiro.

Em nossa proposta também tornamos obrigatório que as instituições provedoras de Internet mantenham cadastro contendo a identificação pessoal de seus assinantes, bem como realizem o registro das transações realizadas por eles. O armazenamento dessas informações – que só poderão ser fornecidas às autoridades competentes por intermédio de decisão judicial – facilitará sensivelmente a apuração dos crimes cibernéticos.

Outro aspecto abordado no Projeto consiste na adoção de mecanismos de controle da utilização dos recursos da Internet nos estabelecimentos públicos que oferecerem acesso à população em geral, tais como “cyber-cafés” e similares. Nessas circunstâncias, o internauta deverá se identificar para que possa fazer uso da rede mundial. Além disso, a entidade deverá se responsabilizar pelo registro e pelo armazenamento dos dados referentes às transações efetuadas.

Propomos ainda que a administração pública federal proíba o acesso, a partir das infra-estruturas de informática governamentais, a sítios estranhos às atividades desempenhadas por cada órgão. A medida contribuirá no sentido de aumentar a produtividade e a eficiência do serviço prestado à sociedade, evitando que os recursos oficiais sejam utilizados com fins alheios ao interesse público.

Por fim, apresentamos instrumentos que permitem restringir o acesso de crianças e adolescentes a conteúdos inadequados na Internet. Assim, determinamos que as escolas de ensino médio e fundamental implantem, em seus computadores, cadastros de sítios de visitação limitada. Em adição, propomos que os sítios hospedados no País que sejam impróprios para o público infantil e infanto-juvenil só possam ser acessados por meio da apresentação de senha ou de outro mecanismo seguro de identificação individual.

Pelo exposto, contamos com o apoio dos ilustres pares para a célere aprovação deste Projeto de Lei que certamente contribuirá para a formação mais sadia de nossos cidadãos e para a inibição da prática dos delitos virtuais no País.

Sala das Sessões, em de de 2004.

Deputado MARCOS ABRAMO

Phreakers

( Publicado originalmente no e-zine CTRL-C nº 01, de novembro/99 )

Como devem imaginar, toda essa história de comunicação, teleinformática e arquitetura TCP/IP tinha um objetivo: falarmos um pouco a respeito dos Phreakers. Agora que já ficou esclarecido como funciona nossa rede de telefonia, podemos analisar essas figuras difíceis que conseguem tirar proveito máximo da rede instalada.

Ao contrário do que pode-se pensar, os phreakers – os quais vejo como precursores dos hackers modernos – não surgiram nessa era digital em que vivemos. Surgiram, praticamente, junto com os telefones. A “Bell Telephone Company”, já no ano de 1878, possuía centenas de jovens contratados para operarem as mesas telefônicas. Estes jovens eram irreverentes, pregavam peças nos colegas e nos assinantes e logo foram substituídos por mulheres, as quais tinham mais responsabilidade no tratamento com o público.

Estes “proto-hackers” criaram tantos problemas que um dos engenheiros da empresa equiparou-os a “índios selvagens”. Inicialmente se dedicavam a enganar as companhias telefônicas e eram chamados de “phone Phreaks” – algo que pode ser toscamente traduzido como “anomalias dos telefones”. Como dominavam plenamente o funcionamento das redes telefônicas, telefonavam sem pagar, transferiam contas, modificavam os sistemas e não deixavam nenhuma marca da sua passagem.

O alvo preferido dos phreakers na década de sessenta era a rede de telefonia a longa distância da AT&T, devido à uma sobretaxa que era cobrada para custear a Guerra do Vietnã (isso não soa familiar? E essa taxa de R$ 2,50 que estão querendo cobrar em nossas contas telefônicas para custear a “comunicação” da polícia militar?…). Pois bem, tantos ataques acabaram gerando uma verdadeira guerra particular, uma guerra que começou quando um certo Mr. John Draper, também conhecido como Captain Crunch, descobriu que numa determinada caixa de cereais vinha de brinde um apito que produzia um tom com a freqüência exata de 2.600 hertz, que era usado pela AT&T para controlar as estações telefônicas. Os phreakers começaram a produzir as chamadas “blue boxes”, “red boxes” e outras enquanto uma certa companhia produtora de cereais não entendia porque, subitamente, suas vendas aumentaram sem explicação aparente…

Em 1978, Ward Christenson e Randy Suess criaram o primeiro BBS pessoal (Bulletin Board System – uma base de dados de mensagens, onde as pessoas podiam se conectar e publicar mensagens para outros grupos). Assim, como já possuíam o controle da rede telefônica de longa distância da AT&T, com o auxílio das BBSs que foram sendo criadas, os hackers criaram um novo mundo privado, livre da interferência do sistema estabelecido – o ciberespaço. Desta feita o phreaking torna-se mais importante que nunca para conexão das BBSs mais distantes.

A troca de experiências, senhas e software através dos meios eletrônicos aumentou o número e a perícia dos phreakers e hackers, estimulando o surgimento de uma estranha confraria secreta, uma subcultura do ciberespaço com seus próprios códigos e regras. Uma cultura onde se competia pelo poder. O poder de controlar o sistema telefônico que é, sem dúvida alguma, a maior e mais complexa máquina já colocada em operação na face da Terra. Dominar um assunto, ou uma técnica é uma forma de poder, é um poder sobre a tecnologia e sobre os mecanismos de segurança dos sistemas. É um sentimento que produz uma sensação de superioridade. Ora, PODER, AVENTURA e ANONIMATO é uma combinação explosiva para aqueles que possuem o conhecimento para tal.

Eles não se consideravam criminosos mas sim uma elite, uma elite acima da lei. Nos primórdios seus códigos proclamavam: primeiro, nada de dinheiro, e segundo, nunca causar danos, não destruir um byte de informação sequer. Para eles o hacking era um jogo, nada mais que um excitante game. Era como entrar invisível em um prédio, poder observar todas as pessoas sem ser notado, ter o poder de destruir tudo e não fazê-lo.

Na medida em que a rede telefônica foi sendo informatizada os phreakers foram se adaptando e desenvolvendo habilidades específicas com os computadores. Com seu domínio da rede telefônica faziam longas chamadas interurbanas e internacionais ligando para parentes, amigos e para sistemas computadorizados em todo o mundo a fim de praticar seu esporte preferido: o hacking. Durante anos eles entraram nos computadores da AT&T e de outras companhias. Qualquer senha descoberta, qualquer falha na segurança de um sistema era rapidamente passada de mão em mão para os outros membros da tribo. Achavam que não estavam fazendo mal algum já que a AT&T não tomava conhecimento do que eles faziam e portanto não haviam chamadas a serem pagas.

Mas na guerra entre a AT&T e os phreakers ocorriam vitórias e derrotas de ambos os lados. Com a melhoria dos sistemas de segurança nas estações da AT&T os phreakers se voltaram para as centrais de PABX dos usuários e conseguiam facilmente telefonar sem pagar. Mas desta vez eles deixavam contas para os donos dos PABXs e essa brincadeira passou a ser encarada como um problema empresarial.

Quando o problema das invasões do sistema telefônico veio a tona no final da década de 80 os especialistas em segurança das empresas telefônicas americanas constataram estupefatos que os phreakers manipulavam com facilidade as estações telefônicas, tinham centenas de contas telefônicas sem nome ou endereço nos bancos de dados da AT&T e conseguiam redirecionar chamadas em qualquer ponto do país e até mesmo do exterior. Até o sistema ReMob (Remote Observation) foi intensamente reprogramado por eles. Usando este recurso eles conseguiam ouvir qualquer conversa telefônica nos EUA!

Um fato insólito ocorreu no dia 13 de junho de 1989: todas pessoas que ligavam para o Departamento da Condicional do Condado de Palm Beach, na Flórida, eram atendidas por um serviço do tipo disk-sexo em Nova Iorque. Alguém havia redirecionado todas as chamadas para um telefone em uma outra cidade e desativado a cobrança das ligações interurbanas. Este evento motivou uma forte reação das autoridades americanas auxiliadas pelos agentes de segurança das companhias telefônicas. O autor da façanha foi o hacker Fry Guy, de apenas 16 anos, que foi preso. Fry Guy (“cara frito”) tinha esse nick por ter conseguido entrar nos computadores do McDonald’s…

Chamo a atenção para o fato de que os Phreakers de outrora naturalmente se tornaram os Hackers da atualidade. No meu ponto de vista o que difere um de outro é simplesmente o grau de especialização atingido pelo primeiro em face do segundo, pois enquanto os phreakers se utilizam de computadores para colocar em prática seus conhecimentos e habilidades, os novos-hackers praticam suas invasões utilizando técnicas de phreaking, sem necessariamente compreender a fundo como funciona o sistema como um todo.

Voltando à nossa resumida história, as hostilidades entre os phreakers/hackers e a AT&T prosseguiram sem alarde durante décadas, principalmente porque não havia interesse da companhia em divulgar para os usuários que intrusos estavam reprogramando seus sistemas e zombando dos seus engenheiros. Isto é comum, pois muitas vezes as empresas não denunciam os ataques que sofrem simplesmente para não perder a credibilidade junto a seus clientes; o que tentam é justamente controlar as invasões através de sistemas conhecidos como “firewalls”, ou seja, programas de segurança. Mas após o dia 15 de janeiro de 1990 o panorama começou a mudar.

A data de 15 de janeiro é um dos mais importantes feriados americanos, o Martin Luther King Day. Ele é considerado o mais político das datas nacionais americanas. E foi também no dia 15 de janeiro de 1990 dois terços da rede de telefonia internacional da AT&T entrou em colapso. Setenta milhões de chamadas telefônicas de longa distância deixaram de ser feitas. Uma estranha reação em cadeia durante algumas horas colocou fora de operação milhares de estações telefônicas. Os engenheiros da AT&T só conseguiram controlar a situação 24 horas depois. Entretanto este formidável acontecimento não foi obra de phreakers mas a consequência de um bug em um recém-instalado programa de gerenciamento das estações telefônicas. Mas já há algum tempo os phreakers vinham espalhando pelos BBS’s que podiam, se quisessem, derrubar a AT&T. Mesmo não tendo sido eles os autores do colapso os engenheiros da AT&T e de outras companhias perceberam que eram uma ameaça verdadeira e que poderiam, se quisessem, levar realmente todo o sistema ao colapso. Além de quê, era muito mais cômodo jogar a culpa neles que assumir o próprio erro.

As companhias telefônicas conseguiram sensibilizar a comunidade de segurança dos EUA atentando com o perigo de um colapso proposital do sistema telefônico e a possível repercussão sobre instalações militares. No decorrer do ano de 90 a comunidade hacker sofreu uma enorme perseguição numa operação conjunta da procuradoria do Arizona, o Serviço Secreto e o FBI, que ficou conhecida como a OPERAÇÃO SUNDEVIL.

Mas aí já é outra história…

Bem, como sempre costuma acontecer comigo na hora de definir um conceito, eu SEI o que é Phreaker, mas como passar todas as nuances que a palavra traz? Fui buscar em meus dicionários – que, diga-se de passagem, devem estar todos desatualizados – não encontrei nada. Ato contínuo, uma busca na Rede. Nada que se aproveitasse. Então lembrei-me de um arquivo que estava perdido em algum lugar em meu HD: The Jargon File 4.0. Apesar de ser de meados de 96, consegui uma definição bem melhor que as que encontrei por aí (a propósito, já baixei a versão mais nova – a 4.1.4 – e a definição continua a mesma…). Vejamos:

:phreaker: Aquele que se ocupa com phreaking.

Legal. E daí? Se eu já não soubesse o que significa, iria me sentir meio que abobalhado, da mesma maneira que fico quando minha esposa me explica algo com palavras em japonês e ainda quer que eu entenda… Bem, vamos em frente:

:phreaking: [de ‘phone phreak’] 1. A arte e ciência de violar a rede telefônica (de forma que, por exemplo, se possa fazer chamadas de longa distância – interurbanos – gratuitas). 2. Por extensão, violação de segurança em qualquer outro contexto (especialmente, mas não exclusivamente, em redes de comunicações).

“Algumas vezes o phreaking era uma atividade quase-respeitável entre hackers; havia um acordo de cavalheiros de que o phreaking como um jogo intelectual e uma forma de pesquisa seria aceitável, mas roubos graves eram tabu. Havia uma substancial troca de informações entre a comunidade hacker e os phreakers da pesada que construíam redes de comunicações clandestinas de sua própria autoria, troca esta que se dava através de alguma mídia, como a legendária “TAP Newsletter”. Entretanto essas tribos começaram a “pegar pesado” em meados dos anos 80, na medida que houve uma larga disseminação de técnicas de ataque que deixavam as centrais telefônicas nas mãos de uma pequena quantidade de phreaks irresponsáveis. Aproximadamente na mesma época mudanças na rede telefônica fizeram com que as velhas técnicas de invasão ficassem sem efeito, de modo que o phreaking passou a depender mais de atos evidentemente criminosos, tal como roubar números de placas de expansão de centrais telefônicas. Os crimes e punições de gangues como do “Grupo 414” transformaram o phreaking em um jogo difícil. Uns poucos hackers dos velhos tempos continuam praticando o phreak casualmente apenas para “treinar a mão”, mas atualmente a maioria dificilmente ouviu falar das “blue boxes” ou qualquer outra parafernália dos grandes phreaks de antigamente”.

Tá, não ajudou muito, mas é um começo. Os Phreakers, na realidade, são ténicos altamente especializados em telefonia – conhecem as centrais telefônicas por dentro e por fora, de modo que sabem quais são os seus pontos fracos que podem ser explorados. Sabem reprogramar essas centrais, fazer instalação de escutas, etc. Seu conhecimento é tal que, aliado à informática, torna possível que ataques a um sistema tenha como ponto de partida provedores de acessos de outros países, pois suas técnicas permitem não somente ficar invisível diante de um provável rastreamento, como também forjar um culpado pela ligação fraudulenta.

Na realidade não há magia no que eles fazem. A maioria das informações, truques e segredos podem inclusive ser encontradas na própria Internet. Nos dias de hoje atividades suspeitas relacionadas exclusivamente à telefonia não fazem mais parte do mundo hacker. Considero que os últimos remanescentes dos “verdadeiros” Phreakers são os profissionais que trabalham com segurança, mais especificamente em espionagem industrial e afins.

Entretanto, na hierarquia que se criou no ciberespaço, também existe a figura do Phreaker. Mas e então? Qual dos dois é legítimo? Ambos, é claro. Pelo menos no meu entendimento. O que ocorre é que um Hacker, para poder se considerar como tal, deve TAMBÉM ser um Phreaker. Ou pelo menos ter um conhecimento considerável sobre phreaking.

E juridicamente, como ficamos? Ora, uma coisa não se mistura com a outra. Uma posição que sempre vou defender é a de que um genuíno Hacker não oferece perigo algum para o Sistema. Infelizmente a mídia atual não ajuda muito, pois qualquer tipo de invasão ou furto eletrônico que ocorra e pronto – lá vem eles dizendo que um hacker entrou em algum sistema e foi responsável por tudo. Há que se criar uma distinção definitiva entre Hacker e Cracker (ou qualquer outra nomenclatura válida) para diferenciar o joio do trigo.

Pior ainda são alguns auto-intitulados “hackers” que se apresentam em público dizendo que podem invadir qualquer sistema e ajudam a disseminar essa paranóia. Pode parecer exagero, mas vejam um caso real da força da mídia: há algum tempo a maior rede de tv do país – não vou citar o nome da Globo que é para não me meter em encrenca >;) – fez uma chamada em um telejornal do horário de almoço que hackers estariam acessando as conta-correntes de bancos e desviando fundos.

Pois bem, estava eu almoçando na casa de meus pais quando ouvi essa chamada. Não é preciso dizer que dei um vôo rasante para perto da televisão para ver o que é que estava pegando. Após muita embromação e num tom completamente fora de propósito soltaram uma reportagem de alguns minutos que, por incrível que pareça, não acrescentou absolutamente nada ao que foi dito na chamada. Não disse se algum banco havia sido invadido, se alguém levou prejuízo, em que estado ou país isso estaria acontecendo, como estaria sendo feito, enfim, nada. Até meu pai, que estava do meu lado e entende praticamente nientes de informática, foi veemente em concordar a inutilidade daquela notícia.

Voltei para o escritório confabulando comigo mesmo nos absurdos da mídia e no estrago que informações como essa poderiam causar no dia a dia de pessoas menos esclarecidas no assunto. É óbvio que existem alguns poucos profissionais que teriam o dom e a capacidade de burlar todo um sistema de segurança de um banco para poder efetuar um desvio não autorizado em uma conta-corrente e não ser detectado, mas nada tão simplista como havia sido enfocado na reportagem. Mesmo assim, pasmem, no momento em que cheguei no escritório recebi de imediato uma ligação de uma grande amiga querendo saber de tudo quanto é jeito como é que ela poderia remover completamente o programa de acesso ao banco que estava instalado em seu computador. Ela havia visto a reportagem…

Ops, dei uma viajada. Tudo bem, estávamos falando de Phreakers, certo?

Na realidade, não temos muito mais o que falar a respeito dos Phreakers, pois é o tipo de atividade que está definida em si mesmo: um expert em telefonia. Na clássica comparação com o chaveiro comum, ele tem o conhecimento para abrir as portas de qualquer sistema telefônico, entretanto somente se tornará um criminoso se utilizar esse conhecimento com fins também criminosos.

Essa matéria comportaria também uma análise mais detalhada dessas atividades, bem como o uso das famosas “boxes” – dispositivos ou esquemas de ligação que permitem ao usuário obter vantagens ou comodidades dos sistemas telefônicos (e que, ao contrário do que se possa pensar, nem sempre têm caráter ilegal). Mas, devido à legislação, esse Zine já está três vezes maior que o número anterior. Assim, vamos deixar um gostinho de quero mais e concluir essa matéria num futuro (quiçá) bem próximo.

VOLTAR AO ÍNDICE )

Protocolos de Comunicação – Arquitetura TCP/IP

( Publicado originalmente no e-zine CTRL-C nº 01, de novembro/99 )

Para possibilitar a interconexão de diferentes equipamentos informáticos através das diferentes redes de comunicações faz-se necessário estabelecer uma série de normas que incluem os requisitos físicos e os procedimentos a serem seguidos. Disso se encarregam diversos organismos internacionais, entre os quais a ISO (International Standard Organization) e o CCITT (Consultive Committe for International Telephone and Telegraph).

Antes das normatizações, cada fabricante estabelecia suas próprias normas ou protocolos, o que impossibilitava a comunicação entre equipamentos de diferentes fabricantes.

Assim, podemos definir como protocolo de comunicações o conjunto de convenções e procedimentos que regulamentam a transmissão de dados entre diferentes equipamentos, completamente ou em alguns de seus aspectos. Ou seja, graças ao protocolo de comunicações é que os computadores conseguem se comunicar, “falando a mesma língua”.

A organização ISO definiu a normatização de comunicações entre equipamentos informáticos estabelecendo sete níveis no que se refere à arquitetura:

1. Físico – define as características dos equipamentos e requisitos para a realização das ligações entre um terminal e um modem.

2. Ligação/Enlace – define os meios e procedimentos para a transmissão de blocos de informação e controle dos possíveis erros que possam ocorrer.

3. Rede – define o intercâmbio de informação dentro de uma rede de teleprocessamento. Trata do agrupamento de quadros em pacotes, do endereçamento e da detecção e correção de erros.

4. Transporte – trata da transferência de mensagens, do agrupamento dos pacotes de dados (mensagens) e da sua decomposição, relacionando-se desta forma com o nível inferior.

5. Sessão – o seu principal objetivo é o controle das operações realizadas sobre os dados, a fim de assegurar a sua integridade com respeito ao uso compartilhado dos mesmos. Neste nível agrupam-se as mensagens relacionadas estabelecendo uma sessão, cada uma das quais devendo ser independente das demais.

6. Apresentação – trata da organização das entradas e saídas, definindo os formatos necessários dos terminais, os arquivos e os trabalhos, a fim de que possam ser utilizados pela sessão e pela aplicação do usuário.

7. Aplicação – a sua principal função consiste no controle e supervisão dos processamentos de usuários que se intercomunicam.

Mas o que verdadeiramente importa, no nosso caso, é a arquitetura TCP/IP – o protocolo de comunicação oficial utilizado na Internet. E dá-lhe história !

Tudo começou na década de 60, com o Comunismo no auge e a chegada de armas nucleares em Cuba. Nos Estados Unidos foi sentido um grande aumento das pressões imposta pela Guerra Fria – que também estava sendo travada em laboratórios de pesquisa patrocinados pelo governo, pois tinha-se como regra que a habilidade de criar e manter vantagens tecnológicas sobre o adversário é que determinaria o vencedor do conflito.

Assim, quando a década de 60 aproximava-se do final, a maioria dos centros de pesquisa financiados pelo governo e universidades já estavam equipados com os melhores recursos computacionais disponíveis à época. Era primordial providenciar a conexão destes centros, mas, para atender aos militares “donos do dinheiro” havia um fator determinante a ser respeitado na escolha da tecnologia de rede a ser utilizada: a informação deveria continuar a fluir, mesmo sob as piores condições possíveis, tal como um ataque nuclear.

Em 1957 havia sido criado a ARPA (Advanced Research Projects Agency), ligada ao Departamento de Defesa (DoD) – diga-se de passagem que sua criação teve por intuito fazer frente ao lançamento do satélite Sputnik por parte da União Soviética. E foi delegado à ARPA a responsabilidade de desenvolver a tecnologia de rede necessária.

Para resolver a questão a ARPA financiou um projeto para a empresa BBN (Bolt Beranek and Newman) para desenvolver um modelo de comunicações que se aplicasse ao caso. Assim, em 1969, a BBN apresentou um protocolo de rede comutada por pacotes denominada NCP (Network Control Protocol) e desenvolveu um computador para controlar a rede, denominado IMP (Information Message Processor), que foi instalado na UCLA, em Los Angeles. No ano seguinte a primeira rede comutada por pacotes já estava em funcionamento, conectando quatro localidades nos estados da Califórnia e Utah: a UCLA, em Los Angeles; o SRI (Stanford Research Institute); a UCSB, em Santa Bárbara; e a Universidade de Utah. Surgia a ARPANET – Advanced Research Projects Agency Network.

Em 1972, 40 diferentes localidades já estavam conectadas à ARPANET. Nesse ano houve o primeiro ICCC (International Conference on Computer Communications), sediado em Washington, que buscava um consenso sobre protocolos de comunicação entre computadores e redes distintas. Foi instituído o INWG (InterNetwork Working Group), um grupo responsável pela criação de um protocolo que pudesse ser utilizado para a comunicação entre a maioria das redes de computadores do mundo, e cujo primeiro moderador nomeado foi Vinton Cerf. Por sua vez a DARPA (Defense Advanced Research Projects Agency), antiga ARPA, iniciou um projeto para investigar as formas possíveis de conexão entre redes de pacotes comutados.

Como resultado destes estudos foram desenvolvidos e apresentados os dois protocolos básicos da Internet. Em 1974, Vinton Cerf e Robert Kahn apresentaram o IP (Internet Protocol) e o TCP (Transmission Control Protocol), que especificavam a forma pela qual as mensagens (arquivos ou comandos) seriam transferidos entre os computadores na Internet.

Em que pese o conjunto de protocolos TCP/IP não pertencer a nenhuma organização, entidade ou fabricante específico, existe uma organização responsável pela padronização, documentação e desenvolvimento da arquitetura TCP/IP e da Internet: é o IAB (Internet Activities Board), o qual é dividido em dois grandes grupos, o IETF (Internet Engineering Task Force) – que concentra seus esforços em problemas de engenharia de curto e médio prazo, e o IRTF (Internet Research Task Force) – que coordena as atividades de pesquisa.

As propostas para revisão ou criação de protocolos relacionados ao TCP/IP são documentadas através de relatórios técnicos, conhecidos como RFCs (Request for Comments). As RFCs podem ser pequenas ou grandes, podem cobrir aspectos gerais ou apenas detalhes, e podem ser padrões ou meramente propostas para um novo protocolo ou modificação do já existente.

Já a função de organizar e distribuir toda a documentação, assim como a administração de nomes de domínio e faixas de endereço IP foi atribuída ao NIC (Network Information Center).

Bem, até aqui vimos um pouco de história e um pouco de padronização. Agora vem a parte para fundir os miolos. Diga a verdade, você nunca se perguntou o que significam aqueles números e nomes esotéricos que utilizamos para conexão em diversos sites? Pois é, vou revelar a cabala que existe neles. Ah, seria totalmente impossível repassar estas informações se não fosse o excelente artigo escrito muitos anos atrás por Alexandre Martins Gomes, especialista em redes e consultor de informática, seja lá ele quem for. ADVERTÊNCIA: a leitura a seguir contém fortes elementos maçantes para os “não-iniciados”, sendo plenamente recomendável para casos de insônia profunda.

O endereço IP é uma estrutura virtual, totalmente implementada em software, de modo a haver plena liberdade para a escolha do formato e tamanho dos pacotes, endereços, etc, já que nada é ditado pelo hardware. Ou seja, a cada máquina participante de uma rede IP é atribuído um endereço IP único de 32 bits que é utilizado em todas as comunicações com aquela máquina.

Conceitualmente, cada endereço é formado por um par, onde o primeiro identifica a rede (net_id), e o segundo identifica a máquina dentro desta rede (host_id). Na prática, cada endereço IP deve possuir uma das três primeiras formas abaixo:

 Classe A
 0 + 7 bits + 24 bits = 32 bits
 - o campo de 7 bits representa a rede
   e o de 24 representa a máquina

 Classe B
 10 + 14 bits + 16 bits = 32 bits
 - o campo de 14 bits representa a rede
   e o de 16 representa a máquina

 Classe C
 110 + 21 bits + 8 bits = 32 bits
 - o campo de 21 bits representa a rede
   e o de 8 representa a máquina

 Classe D (Endereços de Multicast)
 1110 + 28 bits = 32 bits

 Classe E (Reservado para utilização futura)
 11110 + 27 bits = 32 bits

 
Assim, a partir de um determinado endereço IP, podemos descobrir sua classe observando os três bits de maior magnitude, sendo que precisamos de apenas dois para distinguirmos entre as três primeiras classes. A tabela abaixo especifica o número máximo de redes de cada classe, assim como o número máximo de host_id suportado por cada rede.

Classe                                A        B           C

Nr. de bits para net_id               7       14          21
Nr. de bits para host_id             24       16           8
Nr. máximo teórico de redes         128   16.384   2.097.152
Nr. máximo teórico  de  nós  16.777.216   65.536         256
    por rede

 
Observando essa tabela, pode parecer um absurdo alguém querer ou mesmo precisar construir uma rede que possua mais de 16 milhõees de nós, ou até mesmo 65.536; porém, quando a técnica de “subnetting” (RFC 950) é utilizada, ganhamos muito mais flexibilidade para criar um grande número de redes físicas distintas utilizando apenas uma faixa de endereço IP.

Como estamos acostumados a trabalhar na base decimal, a representação em binário de um endereço IP fica um tanto complicado, pois possui um total de 32 números. Tendo isto em vista, foi adotada a notação decimal pontuada (dotted decimal notation) para a representação daqueles números. Como exemplo, abaixo temos um inteiro de 32 bits e logo a seguir seu correspondente:

 11001000 10110010 00010001 00000001 = 200.178.17.1

 
Existem, porém, alguns endereços IP especiais, a saber:

net_id    host_id   SIGNIFICADO     OBSERVAÇÃO

todos     todos     este            permitido apenas na
zero      zero      nó              inicialização do sistema,
                                    nunca sendo um endereço
                                    de destino válido

todos     host      nó              permitido apenas na
zero                nesta           inicialização do sistema,
                    rede            nunca sendo um endereço
                                    de destino válido

todos     todos     broadcast       não é um endereço de
um        um        limitado        origem válido

net       todos     broadcast       não é um endereço de
          um        direcionado     origem válido
                    para a rede
                    net

 
Qualquer endereço válido da rede classe A 127.0.0.0 (127.0.0.1 a 127.255.255.254) são reservados para loopback e foram projetados para testes e comunicações entre processos na máquina local. A título de teste, experimente pingar o endereço 127.0.0.1 em sua máquina e observe o resultado.

Por fim, endereços IP podem ser utilizados para referenciarmos redes, nós individuais ou todos os nós da rede. Por convenção, o endereço de rede possui a parte host_id com todos os bits em zero e o endereço de broadcast da mesma rede possui a parte host_id com todos os bits em um. Em resumo, se uma rede possui, teoricamente, n endereços disponíveis, na verdade a quantidade de endereços realmente disponíveis é n-2, já que um endereço IP é reservado para a rede em si e outro é reservado para broadcast. Maiores informações nas RFCs 990 e 997.

Well, devemos ter em mente que para duas máquinas efetivamente se comunicarem dentro de uma mesma rede IP, isto é feito através de um meio físico (linha telefônica, cabos de rede, ondas de rádio, etc). O hardware de cada um destes equipamentos possui um endereço específico e completamente sem vínculo com o endereço IP, o qual é apenas uma abstração genérica. Ou seja, a única forma de selecionarmos uma máquina entre várias é pelo endereço da interface de hardware, que chamaremos de endereço físico.

Existem algumas técnicas para a resolução de endereços, porém a mais utilizada é a Amarração Dinâmica, implementada através do protocolo ARP (Address Resolution Protocol). Funciona da seguinte maneira:

Suponhamos que a máquina A (192.10.10.1) tenha que enviar uma informação para a máquina B (192.10.10.2), ambas participantes da mesma rede IP. A máquina A sabe o endereço IP da máquina B, mas não seu endereço físico, o qual é essencial. Desta forma, antes que a máquina A possa enviar a informação, esta enviará um ARP request em broadcast (todas as máquinas daquela rede “escutarão” a requisição) com o seguinte pedido: “APENAS a máquina que possuir o endereço IP 192.10.10.2, favor responder”. Se a máquina B estiver ligada e funcionando corretamente, atenderá esse pedido enviando seu endereço de hardware para a máquina A. Neste momento, a máquina A “aprenderá” o endereço físico da máquina B e então poderá efetuar a transmissão da informação.

Por questões de eficiência, existe uma área reservada em memória que contém uma espécie de cache de resolução de endereços, pois se a cada informação que A precisasse enviar para B fosse precedida de um broadcast a fim de resolver endereços, provavelmente o desempenho seria comprometido. Neste caso, se for enviada uma segunda informação de A para B, não mais será necessário o ARP request, uma vez que A já sabe o endereço físico de B. Maiores detalhes na RFC 826.

Com relação ao roteamento (o caminho a se percorrer para entregar a informação), podemos dividir o problema em dois grupos: roteamento direto e roteamento indireto.

O roteamento direto é utilizado quando duas máquinas estão conectadas diretamente numa mesma rede, o que é facilmente verificável através da análise de semelhança entre o net_ide e host_id de ambas as máquinas.

O roteamento indireto é necessário quando a máquina destino não está diretamente conectada à rede da máquina de origem, forçando o transmissor a enviar a informação para um gateway. Gateway é um dispositivo que conecta duas redes locais diferentes, ou uma rede local e uma rede remota; possui processador e memória próprios, podendo fazer a conversão de protocolos e de larguras de banda.

No roteamento indireto o transmissor deve enviar a informação para um gateway e este deverá determinar o melhor caminho para alcançar a rede dstino e enviá-la. Concluímos, pois, que existem múltiplos caminhos para uma origem chegar a um destino, sendo que o gerenciamento destas rotas pode ser administrado manualmente (sempre que uma nova rota for adicionada ou removida, alguém deve “reprogramar” os gateways) ou dinamicamente, isto é, os próprios gateways trocarão informações sobre as tabelas de roteamento e adicionarão ou removerão rotas quando for necessário.

Justamente por isso temos o ICMP (Internet Control Message Protocol), que provê aos gateways e aos hosts um mecanismo para reportar informações de controle ou erro. As mensagens ICMP são enviadas em várias situações, como, por exemplo: quando uma informação não consegue alcançar seu destino ou quando um gateway informa a um host a existência de uma rota mais curta. Existem alguns utilitários que nos permitem gerar mensagens ICMP, normalmente com objetivo de testar a rede, parte dela, ou um host/gateway específico. Os mais utilizados são PING e TRACEROUTE.

O utilitário ping gera um ICMP ECHO_REQUEST para obter um ICMP ECHO_RESPONSE de um host ou gateway. É útil para determinação do estado da rede; descobrir e isolar problemas de hardware e software; testar, medir o desempenho e gerenciar redes. Por default o ping envia uma informação por segundo e imprime uma linha para cada resposta recebida. Podemos obter, ainda, algumas estatísticas, como tempo médio de resposta e taxa de perda de pacotes.

Já o utilitário traceroute determina a rota utilizada até um destino enviando pacotes ICMP_ECHO com o TTL (Time-To-Live) variando. Cada gateway ao longo da rota decrementa o TTL de pelo menos uma unidade antes de propagá-lo. Quando o TTL de um pacote chega a zero, o gateway envia a origem uma mensagem ICMP_TIME_EXCEEDED. Assim o traceroute determina a rota enviando o primeiro ICMP_ECHO com um TTL igual a 1, incrementando-o de uma unidade a cada transmissão subsequente, até que o destino responda ou o TTL máximo seja alcançado. A rota é determinada observando-se as mensagens de ICMP_TIME_EXCEEDED dos gateways intermediários. Maiores detalhes, RFC 792.

Uma vez que entendemos como as redes se distinguem na Internet, agora precisamos verificar de perto como funciona o endereçamento completo, ou seja, as sub-redes. A forma mais fácil para o entendimento do endereçamento de sub-rede é imaginarmos a seguinte situação: uma organização obteve junto ao NIC o seguinte endereço classe B: 158.56.0.0 (conforme já vimos, número máximo teórico de 65.536 endereços IP); considerando que possui 5 escritórios em cidades diferentes e que cada escritório possui 150 computadores, como seria possível conectar todas as 5 redes sob o mesmo endereço classe B, já que para cada rede distinta é necessário um endereço IP distinto?

A solução se baseia na forma de como um endereço IP é interpretado. Antes da padronização do endereçamento de sub-rede, o endereço IP era dividido em 2 partes (um prefixo para a rede e um sufixo para o host). Agora, as duas partes identificam uma porção para rede e uma porção para endereçamento local. Esta última porção ainda pode ser dividida em duas, a saber: rede física e host.

Portanto, estamos aptos a resolver satisfatoriamente o exemplo proposto. Como cada rede local é composta de 150 máquinas, precisaremos de 8 bits para representar cada host em cada rede física. A porção rede já foi definida pela NIC (158.56), utilizando 16 bits. Como o IP é um identificador de 32 bits, sobraram 8 bits para representarmos a rede física. Um dos possíveis resultados seria:

 Rede 1 - 158.5.10.0
 (endereços IP válidos: 158.56.10.1 à 158.56.10.254)

 Rede 2 - 158.5.11.0
 (endereços IP válidos: 158.56.11.1 à 158.56.11.254)

 Rede 3 - 158.5.12.0
 (endereços IP válidos: 158.56.12.1 à 158.56.12.254)

 Rede 4 - 158.5.13.0
 (endereços IP válidos: 158.56.13.1 à 158.56.13.254)

 Rede 5 - 158.5.14.0
 (endereços IP válidos: 158.56.14.1 à 158.56.14.254)

 
Neste caso, podemos fazer a seguinte associação ao endereço IP 158.56.12.15:

 158.56 - identifica a organização (site);
 .12 - identifica a rede física no site;
 .15 - identifica o host na rede física.

 
É importante observarmos que a associação supra só foi possível devido ao fato de conhecermos o número de bits utilizado para representar os hosts em cada rede física. O nome formal do identificador que contém esta informação é subnet mask (máscara de sub-rede). A subnet mask também é um identificador de 32 bits e seu conteúdo pode ser interpretado da seguinte forma: quando os bits na máscara são setados em 1, os bits correspondentes do endereço IP são tratados como parte do endereço da rede; caso contrário, são tratados como parte do identificador do host.

Em nosso exemplo, todas as redes têm máscara 255.255.255.0, ou seja, os três primeiros bytes identificam a rede e o último identifica um host numa determinada rede. De posse desta informação, podemos garantir que os endereços 158.56.12.15 e 158.56.12.89 pertencem à mesma rede. O mesmo não acontece para os endereços 158.56.13.45 e 158.56.14.1. Cabe ressaltar que esta análise do terceiro byte só é válida quando a máscara de sub-rede for 255.255.255.0, em outros casos deve-se proceder a uma comparação através de um “E” booleano. Vide RFC 950.

Na arquitetura TCP/IP temos que o objetivo básico dos protocolos de transporte é prover um mecanismo de multiplexação, permitindo que processos diversos em uma determinada máquina possam se comunicar com um ou mais processos em outras máquinas simultaneamente. Para isso são utilizados dois protocolos de transporte com características bastante distintas, o UDP (User Datagram Protocol) e o TCP (Transmission Control Protocol).

O UDP utiliza os serviços do IP para transportar as mensagens de uma máquina para outra. Porém não existe a garantia da entrega das mensagens, já que o UDP não utiliza acknowledgements (reconhecimentos) para assegurar a chegada das mesmas, de modo que podem ser perdidas, duplicadas, entregues fora de ordem ou os pacotes podemser recebidos numa taxa mais elevada do que o destinatário possa processar. Porém, existe um ponto positivo na utilização do UDP: desempenho. O processamento de suas mensagens gera um overhead bastante pequeno, possibilitando uma maior taxa de transferência. Como exemplo, uma das aplicações mais conhecidas que utilizam o UDP é o NFS (Network File System). Maiores referências na RFC 768.

Já o protocolo TCP especifica o formato dos dados e dos acknowledgements que duas máquinas trocam para obter uma transferência de dados confiável, assim como os procedimentos utilizados para assegurar que os dados chegaram ao destino corretamente. Detalhes em RFC 793.

Se você chegou até aqui, parabéns! Você realmente promete, pequeno gafanhoto… Antes que me perguntem o porquê de colocar um texto tão técnico no que “deveria” ser um e-zine jurídico, permita-me lembrar (mais uma vez) que somente através do conhecimento detalhado do funcionamento da Rede é que se tornará viável a criação de uma legislação mais de acordo com a realidade. Para finalizar, o autor do texto original no qual este foi baseado, Alexandre Martins Gomes, recomenda o livro Internetworking with TCP/IP, v. I, de Douglas E. Comer, Editora Prentice Hall International Editions. Se alguém achar, me avise.

VOLTAR AO ÍNDICE )

Teleinformática

( Publicado originalmente no e-zine CTRL-C nº 01, de novembro/99 )

Qualquer estudioso de qualquer área sabe que para se falar de algum assunto devemos antes nos aprofundar em todas suas variantes. Isto significa que, pelo menos de meu ponto de vista, não adianta eu simplesmente apresentar aqui uma relação da legislação vigente no que diz respeito à telefonia e seu uso na informática; devemos também tentar visualizar o maior número possível de variáveis que auxiliaram a formar o quadro como hoje o temos.

Assim, por ser um dos elementos indispensáveis da equação, sinto muito para aqueles que não suportam textos um pouco mais técnicos, mas mesmo assim tentarei dar um enfoque o mais direto possível, right? Vamos falar um pouco de Teleinformática – uma expressão que muitos dos experts de hoje em dia abominam: simplesmente acham que as comunicações se fundiram de tal maneira que não dá para dizer onde termina a telefonia e começa a informática. Particularmente eu até concordo que estamos caminhando para uma fusão de todas essas tecnologias, porém, após estarem definitivamente fundidas (eu disse fundidas), não podemos esquecer de COMO isso veio a acontecer, pois somente através do estudo histórico desse desenvolvimento é que poderemos avaliar com acuidade a legislação que a regulamenta.

Bem, no perigoso quadro de definições, temos que a reunião das Telecomunicações com a Informática resultou numa técnica conhecida como Teleinformática, ou Telemática. Essa técnica veio concretizar a necessidade de transmissão de informações à distância de maneira rápida e eficaz, onde computadores, terminais e outros equipamentos passaram a ser interconectados utilizando-se, para isso, de cabos coaxiais, microondas, e as próprias linhas telefônicas. Assim, Teleinformática pode ser definida como a técnica que trata, basicamente, da comunicação de dados entre equipamentos informáticos distantes uns dos outros.

A Teleinformática visa também resolver problemas que digam respeito a sua área, tais como: a transformação da informação digital que circula no computador em sinal analógico e vice-versa; o perfeito aproveitamento da capacidade de uma linha de comunicação; a eliminação ou minimização dos erros que possam ser produzidos por ruídos e interferências na linha, bem como perda ou enfraquecimento do sinal (que ocorre ao atravessar grandes distâncias); a compatibilidade entre equipamentos e meios de comunicação, tanto num nível físico como lógico; etc.

Aqueles zilhões de fios aéreos e subterrâneos que as teles do país inteiro têm esparramados por aí formam a atual rede de telecomunicações existente. Essa rede é baseada no princípio de transmissão de impulsos elétricos (lembram-se de Samuel Morse?) sob a forma de sinal analógico (ondas senoidais).

Aí você me pergunta: por que é que a rede não trabalha diretamente com sinais digitais, que são a base de toda transmissão de dados existente? Ou ainda, se o computador trabalha com sinais digitais, como é que conseguimos utilizar essa rede?

Bem, é preciso que você saiba, pequeno gafanhoto, que o sinal analógico que é transmitido de uma ponta a outra não mantém sua integridade no percurso – quanto mais distante, mais fraco ele fica. Além disso ele pode sofrer ainda “ruídos” externos que afetam sua integridade, tais como campos elétricos, fiação inadequada, dias de chuva, etc. É por isso que existem “estações repetidoras” cuja única função é avaliar o pobre coitado do sinal que chega, anabolizá-lo, e despachá-lo para continuar sua viagem. Assim, de estação em estação o sinal vai ganhando vida nova até chegar a seu destino com a mesma integridade com que saiu da origem. Já o sinal digital, na atual rede de cabos instalada, tem muito menos resistência que o analógico, de modo que seriam necessárias muito mais estações repetidoras para viabilizá-lo. Portanto, devido à relação custo-benefício, paulatinamente o cabeamento vai sendo substituído para suportar o sinal digital, mas, por enquanto, o sinal analógico ainda é líder quase que absoluto.

Para visualizar melhor a explicação seguinte, imagine dois computadores que precisem trocar informações entre si: ora, como o computador trabalha exclusivamente com sinais digitais, é necessário acoplar nele um equipamento que, em uma ponta, converta esses sinais digitais em analógicos, transmita-os pela rede de telecomunicações, e, na outra ponta, reconverta esses sinais analógicos para digitais. Esses processos de conversão e reconversão são denominados respectivamente MODULAÇÃO e DESMODULAÇÃO. Acho que você já percebeu que o dispositivo capaz de efetuar esse processo, conectando computadores através de uma linha telefônica, é o nosso amigo MODEM (contração das palavras MOdulator-DEModulator).

Para otimizar o uso das linhas de telecomunicações, permitindo que fluam por elas vários canais de comunicação, utilizam-se dois tipos de dispositivos: os multiplexadores e os concentradores.

Os multiplexadores (mux) são capazes de combinar ou intercalar sinais em um mesmo canal de comunicação simultaneamente. Assim, eles podem realizar uma multiplexação por divisão de frequência, onde é atribuído uma frequência própria para cada sinal (utilizado em redes analógicas); ou podem realizar uma multiplexação por divisão de tempo, onde os sinais são intercalados sequencialmente, através da técnica do time sharing (utilizado em redes digitais). O grande problema dos multiplexadores é que muitas vezes eles são usados para atender a demanda de usuários de voz de linhas telefônicas, de modo que uma linha “normal” pode ser utilizada, por exemplo, por 8 canais – o que não compromete o tráfego de voz, mas divide por oito o tráfego de dados.

Segundo a Anatel, juridicamente o seu uso é permitido. “A utilização de multiplexadores em linhas telefônicas para comunicação entre duas partes é uma técnica de transmissão que não fere nenhuma instância jurídica”. Entretanto não é o que se verifica face ao Código de Defesa do Consumidor…

Já os concentradores gerenciam a transmissão em vários canais, fazendo a distribuição nos terminais que estejam ligados ao host (servidor).

Atualmente os meios físicos de transmissão de dados mais utilizados são os seguintes:

Cabo de Par Trançado – (3 Khz) também empregados em transmissões telefônicas, consistem em dois fios condutores recobertos de material isolante e entreleçados, a fim de diminuir as possíveis interferências. Esse cabeamento UTP (Unshielded Twisted Pair) vem sendo adotado em inúmeras instalações de rede, tendo como vantagem seu baixo custo e como desvantagem a sensibilidade ao ruído elétrico. Uma variação desse tipo de cabo, o cabeamento STP (Shielded Twisted Pair), possui uma blindagem que auxilia a evitar ruídos, da mesma forma que o coaxial.

Cabo Coaxial – (10 Mhz) ou Coax, formados por um fio condutor central totalmente isolado do outro, cilíndrico entrelaçado de fios ou lâmina de alumínio (já deu uma boa olhada no cabo de sua antena de TV?). Este sistema é mais resistente a sinais externos que possam interferir na clareza das transmissões da rede (ruídos), permite transmitir em altas freqüências e possui grande capacidade (largura de banda), com o que um cabo coaxial pode suportar um elevado número de canais de informação. Entretanto apresenta um custo mais elevado, e, no caso de um cabo coaxial muito espesso, por ser rígido, torna-se difícil de instalação e acomodação.

Fibra Óptica – (500 Mhz) aqui utiliza-se como meio físico a fibra de vidro e, como sinal, a luz, conseguindo-se com ela atingir grandes distâncias praticamente sem perdas. O cabo de fibra óptica é formado por um cabo central de aço ao redor do qual se dispõem as fibras de vidro, separadas umas das outras por um revestimento, cuja função é impedir interferências. Os dados binários transmitidos são representados como presença ou ausência de luz, os chamados pulsos de luz. Tem a vantagem de a comunicação não ser afetada pelo ruído nem pelas radiações, a grande resistência e uma longa vida útil, e entre os seus inconvenientes encontra-se o seu alto custo e o fato das conexões exigirem um complexo processo de soldagem. Utiliza-se como emissor de luz um projetor de raios laser ou um LED (Light Emitting Diode). O dispositivo receptor é um fotodiodo. O cabo de fibra óptica permite transmitir dados na velocidade de 1 bilhão de bits por segundo a uma distância de até 4.000 metros, sem precisar de repetidores, sendo que nos cabos tradicionais a cada 1.500 metros são necessários repetidores, para que o sinal não enfraqueça. Só para efeito de comparação: um cabo telefônico subterrâneo de 3.600 pares tem um diâmetro aproximado de mais de 10 cm; já uma fibra ótica, com apenas 0,5 cm de diâmetro, tem capacidade para 12.000 pares. Dá pra encarar?

Microondas – a informação é transmitida no ar por meio de ondas eletromagnéticas. Têm a vantagem de não exigir a ligação física e de possuir largura de banda (meio de transmissão = ar) praticamente ilimitada. Não obstante, faz-se necessária a conexão visual entre os pontos emissor e receptor. Devido ao relevo terrestre, isso faz com que a separação máxima entre emissor e receptor seja em torno de 50 km, podendo também ser instalados estações repetidoras.

Via satélite – a transmissão é feita também por microondas e consiste na utilização como repetidor de um satélite artificial geoestacionário. Isto permite atingir grandes distâncias, evitando o relevo terrestre, embora apresente o incoveniente das mudanças atmosféricas, poderem afetar as transmissões.

Percebe-se então que um dos grandes “problemas” da conexão na rede é justamente a limitação que o sinal analógico traz. Para resolver tais problemas, cada vez mais os pesquisadores estão desbravando novas tecnologias, as quais, ainda assim, não deixam de ter um custo impeditivo. E mais: nem sempre essas novas tecnologias podem ser aplicadas, devido aos entraves burocráticos, pois antes de mais nada devem ser regulamentadas pela Anatel. Vejamos algumas delas, e que nem sempre utilizam a linha telefônica como meio de transmissão:

ISDN (Integrated Services Digital Network, ou RDSI – Rede Digital de Serviços Integrados), que permite utilizar uma mesma linha para duas operações simultâneas. É uma linha telefônica dividida em três canais, chamados 2B+1D, onde o canal D é usado para controle e os canais B trafegam dados a 64 Kbps cada, e, juntos, atingem uma taxa de transferência de 128 Kbps. Esses canais B podem ser usados como linhas independentes, podendo ter até 8 dispositivos conectados ao terminal, com dois funcionando ao mesmo tempo.

ADSL (Asymmetric Digital Subscriber Line, ou Linha Assimétrica Digital de Assinante), que é uma rede dentro da Rede. Emprega sinais digitais em vez dos costumeiros sinais analógicos, aproveitando os fios de cobre dos telefones tradicionais, permitindo a utilização de uma mesma linha telefônica para dados e voz, o que torna possível ao computador ficar conectado 24 horas por dia. O fato de utilizar taxas assimétricas significa que a velocidade de comunicação difere dependendo do sentido da comunicação, que pode atingir até 8 Mbps no downstream (tráfego de dados na direção do usuário) e 640 Kbps no upstream. Tem por desvantagem um modem caro, uma instalação complicada e ficar limitada à distância entre o assinante e a central telefônica, pois quanto menor a distância, maior a velocidade atingida, e vice-versa (no caso do ADSL o sinal começa a se deteriorar a partir de 3 quilômetros).

Ainda na família xDSL, temos algumas variações que, ou estão em fase de padronização, ou possuem um alto custo que inviabiliza sua utilização em larga escala. Assim temos o G-Lite (1,5 Mbps para downstream e 400 Kbps para upstream), que ainda está sendo implantado; o HDSL – High-Bit-Rate Digital Subscriber Line (2 Mbps nos dois sentidos), utilizado por operadoras de telecomunicação, provedores de acesso à Internet e empresas; e o VDSL – Very High-Bit-Rate Digital Subscriber Line (52 Mbps para downstream e 1,6 Mbps para upstream), para empresas, e que possibilita aplicações sofisticadas, tais como TV de alta definição e vídeo sob demanda.

Cable Modem, que utiliza os mesmos cabos das TVs por assinatura. Funciona como um terminal de rede comum, só que o meio físico de transmissão de dados é compartilhado com os sinais da TV, permitindo a melhor relação custo-benefício, atingindo velocidades de até 30 Mbps nos downloads e 2,5 Mbps nos uploads. É a conhecida “Broadband”, ou conexão de banda larga.

WAP (Wireless Applications Protocol, ou Protocolo para aplicações sem fio) – que é uma tecnologia que permite a transmissão de dados via rádio. Assim, ao invés de um modem, o computador possui uma placa de rede que se comunica via ondas de rádio com o provedor, e deste com a Internet. Sua maior vantagem é a grande largura de banda (o próprio ar), entretanto fica limitado por obstáculos físicos (prédios, montanhas, etc).

O espectro do rádio é a parte eletromagnética da comunicação sem fio que pode ser recebida por diversos aparelhos, como pagers, celulares, rádios, TVs e outros serviços móveis. Esse espectro funciona em uma determinada frequência, que é a escala na qual a onda de rádio trabalha. Por exemplo, a televisão VHF trabalha entre 54 e 72 Megahertz, já o celular a 800 MHz. Outro detalhe é que o espectro de rádio está sujeito à regulamentação internacional e nacional.

Assim, independente de qual meio físico de transmissão que esteja sendo utilizado, a sequência de uma conexão de seu computador com a Internet é mais ou menos essa: seu computador disca para o provedor de acesso, quando o computador do provedor atende, e após informar seu nome de usuário e senha, é estabelecido um canal de comunicação entre o seu computador e a rede de computadores desse provedor, que atribui ao seu equipamento um número IP que o identificará naquela sessão de conexão (a matéria seguinte explica detalhadamente o que é um número IP). Isso tudo é feito através da rede de telefonia pública.

Ocorre que esse provedor está conectado 24 horas por dia a um provedor maior, que é conhecido como Backbone (seria como um provedor dos provedores…). No Brasil existem hoje três backbones: Embratel, Global One e RNP.

Porém, não imagine que esse provedor possui a mais alta tecnologia, com salas e salas de equipamentos. Teoricamente é possível montar um provedor completo de acesso numa estante de 2 m de altura por 50 cm de largura…

VOLTAR AO ÍNDICE )