quinta-feira, 26 de novembro de 2009

Software de segurança da internet

A menos que apropriadamente configurados, softwares de terceiros (programas de segurança da internet, bloqueio de pop-ups ou antivírus) podem interferir nos recursos e funções do Gmail.

Combata as ameaças provenientes da Internet

O browser é o elo mais fraco em relação à segurança de um computador. Neste artigo mostramos-lhe como navegar sem problemas
O número e o grau das ameaças que aparecem diariamente na Internet está a mudar, mas não para melhor. É quase impossível para qualquer utilizador normal manter-se a par das mais recentes ameaças e técnicas usadas pelos hackers e pelas organizações criminosas que usam a Internet como base das suas operações.
Todos os dias são inventados e aplicados novos métodos que têm como objectivo comprometer a segurança dos computadores e respectivos utilizadores.

Por muito que as associações e empresas tentem, há uma realidade à qual não conseguimos fugir: os hackers e os criminosos que exploram a Internet determinaram como principal objectivo de vida estarem sempre um passo à frente das companhias de segurança, algo que têm conseguido fazer.

Regras de etiqueta na rede

Como qualquer sociedade organizada, a Internet tem também um conjunto de regras de etiqueta e boas maneiras que, embora não formais, é de bom tom seguir. As regras de etiqueta na rede (conhecidas como Netiquette) são basicamente as mesmas da vida social, ou seja, um conjunto de regras, escritas e não escritas, que nos permitem conviver e partilhar máquinas (tal como convivemos em locais públicos) sem prejudicar os outros.

O QUE É A VIDEOCONFERÊNCIA

A videoconferência permite a um grupo de pessoas localizadas em lugares distantes realizarem reuniões como se estivessem na mesma sala. Os participantes podem conversar uns com os outros e visualizarem-se através de um écran. Este sistema permite todas as opções de apresentação e intercâmbio de informação que são possíveis em reuniões presenciais.

Internet em tempo real

No momento em que estamos vemos os conceitos de web2.0 começando a amadurecer agora, a plataforma de criação, os sites com interfaces mais ricas, colaboração, dentre outros. O que antes eram textos e hyperlinks, agora passa a ser fotos, vídeos, música e principalmente pessoas.

O principal foco são nas pessoas, quanto mais pessoas participando da rede mais interessante é seu site ou sua aplicação, pois essas pessoas irão criar e compartilhar conteúdo a todo momento.
A Internet passa a ser plana e cada pessoa pode ser comunicar com a outra, sendo esse um dos fatores de grande sucesso das redes sociais. Existe essa disputa grande para saber com quem vai ficar a massa, já são 3 dentre os 11 sites mais acessados segundo alexa.com (MySpace(6), Facebook(8) e Orkut(11)). Porém o que vai fazer a diferença entre essas redes ou outras que venham a surgir é forma com que as pessoas interagem e se comunicam.
As redes começaram com simples scraps ou recados, que já fazem grande sucesso, mas já estão começando a perceber que não é o modelo ideal. É nesse instante que começam a perceber que a comunicação em tempo real faz a diferença, os chats que já são bem conhecidos da web servem de modelo para as aplicações que estão surgindo. O Facebook tem essa possibilidade, dentre outras e começa a fazer grande sucesso. Outros exemplos que estão sendo observados bem de perto são Plurk e Twitter, com destaque para o Plurk que possui um modelo de interatividade bem avançado, dando a possibilidade de seus contatos conversarem, compartilharvídeos e fotos de maneira fácil. O Twhirl, que utiliza a tecnologia Adobe AIR, também é apontado como grande promissor por trazer comunicação em tempo real com vários sites como Twitter, identi.ca, Friendfeed e seesmic.
As pessoas querem ter um feedback rápido, quanto mais dinâmico e interativo melhor, sites como o Digg, dihitt, rec6, a tecnologia RSS para notícias e os citados anteriormente fazem sucesso por conta dessa interatividade. O sucesso está nesse poder de interação e comunicação, que atrai os usuários e os fazem fiéis, que faz com que as pessoas passem uma grande quantidade de horas utilizando o site ou aplicação, tornando-se algo de sucesso pois terá muita gente de olho nessa grande quantidade de usuários.

Grupos de Discussão

Os grupos de discussão (newsgroups) permitem colocar perguntas a outros internautas, ou analisar respostas já dadas a perguntas que nos podem interessar, antes formuladas por outras pessoas. Cada grupo de discussão está dedicado a apenas um tema e as pessoas que nele participam podem ser consideradas uma comunidade que se entreajuda em relação a problemas com ele relacionados. A noção de comunidade, embora abranja o conceito de harmonia, generosidade e até mesmo fraternidade, também envolve o de conflitos, quezílias e interesses, mais ou menos dissimulados.

O que são as listas de distribuição?

O que são as listas de distribuição?
As listas de distribuição são endereços colectivos de correio electrónico, que servem para distribuir uma mensagem por um conjunto de utilizadores. Por isso, elas são utilizadas para grupos de discussão sobre determinados assuntos, difusão de informação entre os membros de organizações, anúncios e informações a clientes de certos produtos e serviços, distribuição de revistas electrónicas, etc.

Como participar numa lista de distribuição?
Para participar nesta como em qualquer Lista de Distribuição de Email, é necessário assiná-la, isto é, solicitar que o nosso endereço de correio electrónico seja acrescentado à mesma. Geralmente, após o pedido de assinatura o servidor solicita-nos confirmação do pedido e, posteriormente, remete-nos uma mensagem sobre o funcionamento e objectivos da lista, comandos disponíveis, etc. A partir desse momento, passaremos a receber todas as mensagens enviadas para a lista pelos seus membros e poderemos enviar as nossas próprias mensagens, que serão distribuídas imediatamente (listas não-moderadas) ou avaliadas (listas moderadas) quanto à sua pertinência. Veja as figuras abaixo.

Sistema de correio eletrónico

O software de correio eletrônico surgiu com o objetivo de auxiliar a comunicação e a troca de informações entre as pessoas. Anteriormente ao surgimento do correio eletrônico, os documentos e mensagens eram distribuídos de maneira menos ágil, comparando-se com o trabalho realizado pelos correios ou por outros meios tradicionais.

Cada usuário deste sistema possui um endereço eletrônico conhecido como email. Através de programas de computadores que são clientes de email e de servidores de correio eletrônico o usuário recebe e envia mensagens.

Com a expansão dos serviços de web, o correio eletrônico tornou-se uma ferramenta muito difundida nas empresas, instituições e mesmo nas residências.

quarta-feira, 18 de novembro de 2009

Historia

O lançamento soviético do Sputnik causou como consequência a criação americana da Defense Advanced Research Projects Agency (Agência de Projetos de Pesquisa Avançada), conhecida como ARPA, em fevereiro de 1955, com o objetivo de obter novamente a liderança tecnológica perdida para os soviéticos durante a guerra fria.[2][3] A ARPA criou o Information Processing Techniques Office (Escritório de Tecnologia de Processamento de Informações - IPTO) para promover a pesquisa do programa Semi Automatic Ground Environment, que tinha ligado vários sistemas de radares espalhados por todo o território americano pela primeira vez. Joseph Carl Robnett Licklider foi escolhido para liderar o IPTO.[4]

Licklider se transferiu do laboratório psico-acústico, na Universidade de Harvard, para o MIT em 1950, após se interessar em tecnologia de informação. No MIT, fez parte de um comitê que estabeleceu o Laboratório Lincoln e trabalhou no projeto SAGE. Em 1957, tornou-se o vice-presidente do BBN, quando comprou a primeira produção do computador PDP-1 e conduziu a primeira demonstração do compartilhamento de tempo.

No IPTO, Licklider se associou a Lawrence Roberts para começar um projeto com o objetivo de fazer uma rede de computadores, e a tecnologia usada por Robert se baseou no trabalho de Paul Baran,[5] que havia escrito um estudo extenso para a Força Aérea dos Estados Unidos recomendando a comutação de pacotes ao invés da comutação de circuitos para tornar as redes mais robustas e estáveis. Após muito trabalho, os dois primeiros elos daquele que viria a ser o ARPANET foram interconectados entre a Universidade da Califórnia em Los Angeles e o SRI (que viria a ser o SRI International), em Menlo Park, Califórnia, em 29 de outubro de 1969. O ARPANET foi uma das primeiras redes da história da Internet atual.

Após a demonstração de que a ARPANET trabalhava com comutações de pacotes, o General Post Office, a Telenet, a DATAPAC e a TRANSPAC, trabalharam em colaboração para a criação da primeira rede de computador em serviço. No Reino Unido, a rede foi referida como o Serviço Internacional de Comutação de Pacotes (IPSS).

Este sistema garantia a integridade da informação caso uma das conexões da rede sofresse um ataque inimigo, pois o tráfego nela poderia ser automaticamente encaminhado para outras conexões. O curioso é que raramente a rede sofreu algum ataque inimigo. Em 1991, durante a Guerra do Golfo, certificou-se que esse sistema realmente funcionava, devido à dificuldade dos Estados Unidos de derrubar a rede de comando do Iraque, que usava o mesmo sistema.


Placa celebrando o "Nascimento da Internet" na Universidade de Stanford, Estados Unidos.O X.25 era independente dos protocolos TCP/IP, que surgiram do trabalho experimental em cooperação entre a DARPA, o ARPANET, o Packet Radio e o Packet Satellite Net Vinton Cerf e Robert Kahn desenvolveram a primeira descrição de protocolos TCP em 1973 e publicaram um artigo sobre o assunto em maio de 1974. O uso do termo "Internet" para descrever uma única rede TCP/IP global se originou em dezembro de 1974, com a publicação do RFC 685, a primeira especificação completa do TCP, que foi escrita por Vinton Cerf, Yogen Dalal e Carl Sunshine, na Universidade de Stanford. Durante os nove anos seguintes, o trabalho prosseguiu refinando os protocolos e os implementando numa grande variedade de sistemas operacionais.

A primeira rede de grande extensão baseada em TCP/IP entrou em operação em 1 de janeiro de 1983, quando todos os computadores que usavam o ARPANET trocaram os antigos protocolos NCP. Em 1985, a Fundação Nacional da Ciência (NSF) dos Estados Unidos patrocinou a construção do National Science Foundation Network, um conjunto de redes universitárias interconectadas em 56 kilobits por segundo (kbps), usando computadores denominados pelo seu inventor, David L. Mills, como "fuzzballs". No ano seguinte, a NSF patrocinou a conversão dessa rede para uma maior velocidade, 1,5 megabits por segundo. A decisão importantíssima de usar TCP/IP DARPA foi feita por Dennis Jennings, que estava no momento com a responsabilidade de conduzir o programa "Supercomputador" na NSF.

A abertura da rede para interesses comerciais começou em 1988. O Conselho Federal de Redes dos Estados Unidos aprovou a interconexão do NSFNER para o sistema comercial MCI Mail naquele ano, e a ligação foi feita em meados de 1989. Outros serviços comerciais de correio eletrônico foram logo conectados, incluindo a OnTyme, a Telemail e a Compuserver. Naquele mesmo ano, três provedores comerciais de serviços de Internet (ISP) foram criados: a UUNET, a PSINet e a CERFNET. Várias outras redes comerciais e educacionais foram interconectadas, tais como a Telenet, a Tymnet e a JANET, contribuindo para o crescimento da Internet. A Telenet (renomeada mais tarde para Sprintnet) foi uma grande rede privada de computadores com livre acesso dial-up de cidades dos Estados Unidos que estava em operação desde a década de 1970. Esta rede foi finalmente interconectada com outras redes durante a década de 1980 assim que o protocolo TCP/IP se tornou cada vez mais popular. A habilidade dos protocolos TCP/IP de trabalhar virtualmente em quaisquer redes de comunicação pré-existentes permitiu a grande facilidade do seu crescimento, embora o rápido crescimento da Internet foi devido primariamente à disponibilidade de rotas comerciais de empresas, tais como a Cisco Systems, a Proteon e a Juniper, e pela disponibilidade de equipamentos comerciais Ethernet para redes de área local, além da grande implementação dos protocolos TCP/IP no sistema operacional UNIX.
A Internet é um conglomerado de redes em escala mundial de milhões de computadores interligados pelo TCP/IP que permite o acesso a informações e todo tipo de transferência de dados. Ela carrega uma ampla variedade de recursos e serviços, incluindo os documentos interligados por meio de hiperligações da World Wide Web, e a infraestrutura para suportar correio eletrônico e serviços como comunicação instantânea e compartilhamento de arquivos.

De acordo com dados de março de 2007, a Internet é usada por 16,9% da população mundial[1] (em torno de 1,1 bilhão de pessoas).

O nascimento da World Wide Web

O NeXT Computer, usado pelo cientista britânico Tim Berners-Lee sendo o primeiro servidor web.A Organização Europeia para a Investigação Nuclear (CERN) foi a responsável pela invenção da World Wide Web, ou simplesmente a Web, como hoje a conhecemos. Corria o ano de 1990, e o que, numa primeira fase, permitia apenas aos cientistas trocar dados, acabou por se tornar na complexa e essencial Web.

O responsável-mor pela invenção chama-se Tim Berners-Lee, que construiu o seu primeiro computador na Universidade de Oxford, onde se formou em 1976. Quatro anos depois, tornava-se consultor de engenharia de software no CERN e escrevia o seu primeiro programa para armazenamento de informação – chamava-se Enquire e, embora nunca tenha sido publicada, foi a base para o desenvolvimento da Web.

Em 1989, propôs um projecto de hipertexto que permitia às pessoas trabalhar em conjunto, combinando o seu conhecimento numa rede de documentos. Foi esse projecto que ficou conhecido como a World Wide Web[6]. A Web funcionou primeiro dentro do CERN, e no Verão de 1991 foi disponibilizada mundialmente.

Em 1994 Berners-Lee criou o World Wide Web Consortium, onde actualmente assume a função de director. Mais tarde, e em reconhecimento dos serviços prestados para o desenvolvimento global da Web, Tim Berners-Lee, actual director do World Wide Web Consortium, foi nomeado cavaleiro pela rainha da Inglaterra.

quarta-feira, 11 de novembro de 2009

Programas Informaticos

Software ou logiciário é uma sequência de instruções a serem seguidas e/ou executadas, na manipulação, redirecionamento ou modificação de um dado/informação ou acontecimento.

Software também é o nome dado ao comportamento exibido por essa seqüência de instruções quando executada em um computador ou máquina semelhante.

Software também é um produto e é desenvolvido pela Engenharia de Software, e inclui não só o programa de computador propriamente dito, mas também manuais e especificações.
Para fins contábeis e financeiros, o Software é considerado um Bens de capital.

Tipos de Programas de Computador

Qualquer computador moderno tem uma variedade de programas que fazem diversas tarefas.
Eles podem ser classificados em duas grandes categorias:

1.Software de sistema que incluiu o firmware (O BIOS dos computadores pessoais, por exemplo), drivers de dispositivos, o sistema operacional e tipicamente uma interface gráfica que, em conjunto, permitem ao usuário interagir com o computador e seus periféricos.

2.Software aplicativo, que permite ao usuário fazer uma ou mais tarefas específicas. Aplicativos podem ter uma abrangência de uso de larga escala, muitas vezes em âmbito mundial; nestes casos, os programas tendem a ser mais robustos e mais padronizados. Programas escritos para um pequeno mercado têm um nível de padronização menor.
A arquitetura de computadores é a teoria por detrás do desenho de um computador. Da mesma maneira que um arquiteto de edifícios define os principios e os objetivos de um projeto de edificação como base dos projetos do projetista, assim também um arquiteto de computadores o faz, definindo a base das especificações do desenho do sistema. A Arquitetura de computadores pode também ser definida como a estrutura e a organização dos hardwares e se refere ao funcionamento interno do computador, como está organizada e arranjada a parte não vista pelo usuário de computador.

Outro problema recorrente envolve a memória virtual. Historicamente, a memória de acesso aleatório (RAM) foi centenas de vezes mais cara que o armazenamento mecânico rotativo, isto é, discos rígidos, num computador moderno. O processador só pode executar uma instrução que esteja na memória real. O mecanismo de Memória Virtual divide a memória real em FRAMES e divide um arquivo no disco em PÁGINAS de mesmo tamanho dos frames. No disco existem muito mais páginas do que frames na memória. Sempre que for preciso uma página é copiada da memória virtual (arquivo em disco) para um frame da memória real. Surge a necessidade de saber quando é preciso copiar. Surge a necessidade de saber se um frame pode ser descartado ou se precisa ser recopiado para sua página correspondente no arquivo em disco. Sempre que uma instrução é executada a partir de um frame o hardware controlador de memória virtual testa se o dado a que ela se refere já se encontra em algum frame. Se for o caso, uma interrupção ocorre para que a rotina de tratamento cuide de copiar do disco para a memória real uma página completa contendo o dado necessário.

quinta-feira, 1 de outubro de 2009

Sistema wimp ms dos

História
"O precursor das interfaces gráficas do utilizador foi inventado por pesquisadores do
Instituto de Pesquisa de Stanford, liderados por Douglas Engelbart. Durante a década de 1960, eles desenvolveram o uso de hiperligações de texto manipuladas com um rato para o NLS. Ivan Sutherland desenvolveu um sistema baseado em ponteiros chamado Sketchpad em 1963, que usava uma caneta de luz para guiar a criação e manipulação de objetos em desenhos de engenharia. Durante a década de 1970, o conceito de hiperligações foi posteriormente refinado e estendido por pesquisadores da Xerox PARC, que foram além da interface de texto, usando uma interface gráfica como a principal interface do computador Xerox Alto, que influenciou a maioria das interfaces gráficas modernas desde então.
A Interface do Utilizador da PARC consiste de
widgets gráficos com janelas, menus, caixas de opção, caixas de seleção e ícones. Ela usa um dispositivo de ponteiro em adição ao teclado. Seguido desse sistema PARC, o primeiro modelo baseado somente em interface gráfica foi o Xerox 8010 Star Information System, de 1981."

http://pt.wikipedia.org/wiki/Interface_gr%C3%A1fica_do_utilizador

Interface Gráfica do utilizador

Em informática, interface gráfica do utilizador (português europeu) ou interface gráfica do usuário (português brasileiro) (abreviadamente, o acrônimo GUI, do inglês Graphical User Interface) é um tipo de interface do utilizador que permite a interação com dispositivos digitais através de elementos gráficos como ícones e outros indicadores visuais, em contraste a interface de linha de comando.
A interação é feita geralmente através de um
rato ou um teclado, com os quais o usuário é capaz de selecionar símbolos e manipulá-los de forma a obter algum resultado prático. Esses símbolos são designados de widgets e são agrupados em kits.
Ambiente gráfico é um
software feito para facilitar e tornar prática a utilização do computador através de representações visuais do sistema operacional.
Para
Windows temos apenas o ambiente gráfico padrão, nas versões Windows Vista temos a chamada Windows Aero, com o principal recurso Flip 3D. Para Linux temos vários ambientes gráficos, entre eles, o KDE, Gnome, BlackBox, Xfce, etc.. Há também a opção de não precisar usar ambientes gráficos. Para prover a funcionalidade do ambiente gráfico existem programas como X.org, XFree86.
http://pt.wikipedia.org/wiki/Interface_gr%C3%A1fica_do_utilizador


Componentes

Uma interface gráfica do utilizador usa uma combinação de tecnologias e dispositivos para fornecer uma plataforma com a qual o utilizador pode interagir.
Em computadores pessoais, a combinação mais conhecida é o WIMP, que consiste de janelas, ícones, menus e ponteiros. Nesse sistema, utiliza-se um dispositivo de ponteiro como o rato para controlar a posição dum cursor e apresentar informação organizada em janelas e representada através e ícones. Os comandos disponíveis são compilados através de menus e acionados através do dispositivo de ponteiro. Um
gerenciador de janela facilita a interação entre janelas, aplicações e o sistema de janelas, este, responsável por lidar com os dispositivos de hardware como o dispositivo de ponteiro e o hardware gráfico.
A simulação proporcionada pelos gerenciadores de janelas, incluindo a interação entre janelas e outros elementos gráficos, produz um
ambiente de desktop.
Dispositivos móveis como
PDAs e smartphones também usam elementos do WIMP mas com outros tipos de metáforas, devido às limitações de recurso do próprio dispositivo.