Há quem acredite que a computação do futuro foi preconizada pelo design gráfico do filme Minority Report e que Tim Cannon é o seu Messias, respectivamente, recriando o mundo existente por meio de realidade virtual e favorecendo a “ciborguização“. Entretanto, apesar de as telas de computador se multiplicarem na nossa frente e da necessidade humana de aumentar seu tempo de vida parecer cada vez mais preeminente, os avanços tecnológicos contemporâneos estão mais baseados em uma evolução gradual do que em saltos evolutivos.
Computadores são, em sua essência, maquinas de calcular, e, por definição, estão presentes na vida do ser humano muito antes de termos tido domínio sobre a eletricidade. Máquinas são ferramentas que são utilizadas para facilitar as atividades cotidianas, sejam elas físicas – como a agricultura – ou intelectuais – como o cálculo, sejam as máquinas mecânicas – como as bicicletas – ou elétricas – como maquinas de costura.
O cálculo é a transposição matemática de pensamentos abstratos baseados em padrões socialmente compartilhados – quais sejam, unidades de medidas, suas variações ao longo do tempo e suas relações com as necessidades sociais. Por apenas serem válidos se forem conhecidos por aqueles que pretendem utilizar os resultados obtidos, esses padrões devem ter representações inteligíveis e parâmetros amplamente difundidos – representação gráfica e sistemas de medida compartilhados.
No estudo da história da matemática, percebe-se que suas origens restam em povos africanos que viveram a mais de 35.000 anos na Suazilândia e suas bases modernas foram forjadas sob a tilintar das cimitarras – em outras palavras, na era de ouro e de expansão dos povos árabes. Contudo, a história moderna da matemática é credita, sobretudo, a estudiosos britânicos como Oughtred, Napier e Boole.
As grandes navegações e a globalização, contribuíram para o espalhamento de valores e conceitos compartilhados entre as mais diversas sociedades humanas.
Entremeando esses períodos, as planícies orientais chinesas de 5.000 anos atrás deram sua contribuição com a difusão do ábaco como máquina de cálculo. De maneira análoga, as grandes navegações e a globalização do século XVI, contribuíram para o espalhamento de valores e conceitos compartilhados entre as mais diversas sociedades humanas.
No século XVII, a régua de cálculo – creditada William Oughtred – representava uma tabela para a realização de operações matemáticas complexas que possibilitaram o avanço dos estudos dos logaritmos – creditados a John Napier. A régua, portanto, é uma maneira de simplificar os pensamentos matemáticos, passando-os do plano das ideias para o plano físico, caracterizando-se como uma máquina analógica.
O aumento do controle do ser humano sobre a energia elétrica permitiu a transformação de maquinas analógicas em máquinas eletrônicas e, consequentemente, aparelhos digitais. Do analógico ao digital tem-se evolução que deu suporte ao desenvolvimento para que a computação dos dias atuais pudesse chegar ao estado de tecnologias vestíveis.
Um exemplo de dispositivo que contém sinal analógico é o ponteiro de uma balança de peso, que está ligado à mola que mede a massa do indivíduo. É considerado analógico porque esse sinal apresenta uma medição direta e contínua cuja variação em relação à unidade de medida é a representação proporcional de outra variável temporal, sem intermediários não representativos da realidade física dos elementos envolvidos na medição.
Ao se passar do âmbito elétrico para o digital, ao invés de se trabalhar com níveis de tensão trabalha-se com níveis aritméticos e lógicos, esses dígitos – ou dois estados – são: sim e não, falso e verdadeiro, tudo ou nada, 1 ou 0, ligado e desligado. O sistema binário, base para a Álgebra booleana – Gerge Boole -, é um método de numeração posicional em que todas as quantidades se representam com base na dualidade.
O postulado fundamental da eletrônica, para fins da engenharia da computação, determina que um circuito elétrico funcione com dois níveis de tensão – ignorando-se as ocorrências intermediárias -, esses níveis criam portas lógicas básicas que, por sua vez, formam blocos lógicos complexos que constituem um processador. Os computadores digitais trabalham internamente com duas faixas de tensão em que considera-se 0 (zero) até determinada frequência e 1 (um) o que não for equivalente ao primeiro parâmetro.
Sinais digitais, portanto, são representações de determinados instantes de frequências de valores com equivalentes no mundo físico, geralmente representados por um fluxo de bits em uma forma continua de sinal em forma de onda.
Sinais digitais, portanto, são representações de determinados instantes de frequências de valores com equivalentes no mundo físico, geralmente representados por um fluxo de bits contínuo de sinal em forma de onda. Como a onda não representa valores exatos de 0’s e 1’s, determinam-se frequências sob as quais se consideram valores dentro de cada um dos lados dessa dualidade.
Etmologicamente, o digital – para tecnologia da informação – representa a relação do aparelho com os dígitos binários – em oposição ao sinal analógico. Os programas são codificados sob forma binária e suas mídias são armazenadas também para esse formato.
Chama-se um dígito binário (0 ou 1) de bit (binary digit). Um agrupamento de 8 bits corresponde a um byte (binary term), e assim sucessivamente – 1024 Bytes a 1 Kilobyte; 1024 Kilobytes a 1 Megabyte; 1024 Megabytes a 1 Gigabyte; 1024 Gigabytes a 1 Terabyte; 1024 Terabytes a 1 Petabyte.
Em 1642, o matemático francês Bleise Pascal desenvolveu a primeira calculadora mecânica da História, a Máquina de Pascal; em 1801, o costureiro Joseph Marie Jacquard materializou o Tear Programável – por meio dos cartões perfuráveis com maneira de “programar” a execução das atividades da máquina -; em 1822, Charles Babbage criou a Máquina Diferencial. Em 1837, com o auxílio da matemática e escritora Augusta (Lovelace) Ada King – conhecida por ser a primeira programadora de computadores, por ter escrito os primeiros algoritmos aplicados ao funcionamento de uma máquina -, Babbage evoluviu sua primeira criação para o Engenho Analítico, que podia calcular funções trigonométricas e logarítmicas complexas.
Em 1931, Vannevar Bush implementou os primeiros computadores de arquitetura estritamente binária, impulsionados, sobretudo, pelas necessidades da criptografia da Segunda Guerra Mundial, que fomentou a criação do Mark I, em 1944, pela universidade de Harvard e o Colossus, em 1944, pelo matemático e maratonista Allan Turing – considerado o pai da teoria da ciência da computação e da inteligência artificial. Em 1946, John Eckert e John Mauchly desenvolveram o ENIAC (Integrador e Calculador Numérico Elétrico) – primeiro computador totalmente não analógico – era 10³ mais rápido que as máquinas da época, apesar de ter o tamanho de uma sala e pesar 3 toneladas.
Na primeira metade da década de 1960, a IBM ganhou grande destaque com seus supercomputadores de circuitos integrados, como o Modelo 7030 – primeiro supercomputador com transistores -, e os “mainframes”, como o Modelo S/360 – formado para ter aplicação em larga e pequena escala, tanto científica como industrial -, que permitiam armazenamento de dados em discos e fitas e a programação de operações usadas por um processador. Para acompanhar essa evolução e permitir o surgimento de aplicações com acompanhassem a complexidade dessas máquina, foram elaboradas as primeiras linguagens de programação largamente conhecidas – Algol, Cobol, Fortran.
De maneira similar, pode-se fazer um paralelo com o surgimento dos telefones celulares, que no início eram muito caros, tinham funcionalidades limitadas, necessitavam de reparos constantes no software e operavam em temperaturas muito elevadas.
Ao fim da Segunda Guerra Mundial, a volta do crescimento econômico em escala mundial reaqueceu o mercado de tecnologia tanto no âmbito da pesquisa quanto no âmbito dos consumidores, permitindo o surgimento dos “minicomputadores” mais atrativos do ponto de vista financeiro (cerca de 3 milhões de dólares) e físico (tamanho de uma geladeira), como o modelo PDP-8 – primeiro sucesso comercial na sua categoria, registrando uma venda de 50.000 unidades -, utilizavam válvulas eletrônicas e quilômetros de fios. Pode-se fazer uma comparação dele com o surgimento dos telefones celulares, que no início eram muito caros, tinham funcionalidades limitadas, necessitavam de reparos constantes no software e operavam em temperaturas muito elevadas.
A década de 1970 foi a era dos microprocessadores e computadores pessoais, o que permitiu a diminuição do tamanho e preço dos aparelhos. Em 1975, o Altair 8800, dispunha de processador Intel, linguagem Basic e cabia em uma mesa de escritório, contudo foi apenas sob a influência de Steve Wozniak, lançando o computador pessoal Apple I – mais amigável ao usuário comum e com melhorias significativas na interface gráfica -, que a computação invadiu a casa das pessoas.
Enquanto Bill Gates e Paul Allen trabalhavam na criação de um interpretador (sistema operacional) para o Altair, Steve Jobs e Wozniak lançaram o Apple II, abrindo caminho para a popularização do Lisa e do Macintosh – mais integrados com periféricos como o mouse e drives de disquete – na primeira metade da década de 1980. O MS-DOS, primeiro sistema operacional da Microsoft, foi lançado na tentativa de tirar aproveito dessa onda de desenvolvimento do mercado da computação e foi acompanhado por melhorias no poder dos processadores e dos transistores – a exemplo dos da linha da Intel processadores, Pentium (1, 2, 3, 4, Core 2 Duo e i7) .
A era dos portáveis, dos computador de bolso – antes mesmo dos vestíveis e implantáveis -, foi inaugurada pelo lançamento do iPhone, que ganham grande popularidade devido ao aumento do acesso das populações à internet e da proliferação de aplicativos.
Após os computadores pessoais e a popularização dos laptops, a era dos computadores de bolso, os portáveis – muito antes dos vestíveis e implantáveis -, foi efetivamente inaugurada pelo iPhone. Esses dispositivos são chamados também de telefones inteligentes porque além de aparelhos celulares também têm acesso à internet e, sobretudo, aplicativos desenvolvidos diretamente para eles.
A década de 1990 viu a proliferação dos palmtops, pendrives, câmeras fotográficas inteligentes, TVs portáteis, tablets, sem a necessidade de que nenhum desses fossem o “X-killer” – termo utilizado para determinar a nova tecnologia de ponta que torna obsoleto tudo antes produzido. A tecno veste não é o “smartphone-killer”, na verdade, no presente estado de coisas, ambos trabalham como companheiros.
De forma análoga, no âmbito das tecnologias vestíveis, o relógio inteligente (smartwatch) não compete com o óculos inteligente ou com os compuadores tradicionais; esses últimos são ferramentas para o trabalho, enquanto as primeiras são ferramentas para a vida. Na verdade, em diversos momentos do dia do usuário, ambos trabalham juntos – como o próprio Timothy Jordan, chefe de desenvolvimento para Google Glass e Android Wear, definiu no ano de lançamento do Android Wear:
“As pessoas levam tecnologia para as suas vidas e as utilizam em suas aventuras pelo mundo. Nosso trabalho é criar a possibilidade que tenham experiências mais ricas e estejam mais conectadas com as pessoas e o mundo em torno delas.” (Timothy Jordan)
A tecno veste está inserida na próxima fase da evolução dos computadores – depois dos dispositivos móveis e antes dos implantáveis -, pois a praticidade que oferecem vão fazer o indivíduo querer tê-la consigo sem a antiga preocupação de ter que carregá-la. Neste prisma, mas no âmbito dos softwares, é que o conceito de computação ubíqua torna-se mais relevante, que é a ideia de que quando as pessoas começam a utilizar um serviço esperam que ele esteja disponível para onde quer que se desloquem – a exemplo do que a Apple chamou de “continuidade” no lançamento do iOS 8.
Serviços como o Spotify, perceberam isso e montaram seu modelo de negócios não em cima do comércio tradicional da indústria fonográfica – que em última instância causou o seu desmantelameno -, mas a partir da entrega de praticidade, pois oferecem portabilidade e soluções para os anseios dos usuários – ao fornecer acesso imediato a material protegido por direitos autorais – enfim conquistando clientes com seus serviços “freemium”. Nesse prisma, o pioneiro Sean Parker – pai do Napster – e o empresário Daniel Ek – co-fundador do Spotify -, estão um passo a frente dos demais, pois – apesar da resistência da conservadora indústria da música e das barreiras à entrada – colocaram em prática, de maneira eficiente, um conceito que há muito circunda as mentes dos tecnologistas: ubiquidade no atendimento.
Conectar todos os aparelhos em uma experiência única – não ostensiva e leve – é a filosofia da computação ubíqua, que serve como base teórica não apenas para a tecno veste mas também para a Internet das Coisas (internet of things – IoT) – conceito que refere-se à interligação avançada de objetos singularmente identificáveis conectados entre si através de infraestrutura de internet previamente existente. Empresas como a NEST e a Crazy Tech Labs têm trabalhado para integrar sistemas, aparelhos, objetos, serviços, seres humanos e animais de maneira que, cobrindo uma variedade de protocolos e domínios, a automação de determinados processos permitam que os usuários tenham mais tempo para se dedicarem ao que consideram prioridade.
Nessa seara, o sucesso de uma aplicação não se dá na quantidade de tempo que o usuário passa utilizando-a, mas quão rapidamente se entrega o que aquele indivíduo específico precisa e é deixado livre para voltar a se ocupar de suas atividades cotidianas. Como empresário e especialista em IoT Jorge Maia defende em suas palestras:
“Assim como não faz sentido se contratar um serviço de vigilância por vídeo, quando o problema na verdade é monitoramento de condições climáticas do ambiente, não é preciso esse mesmo serviço mande notificações a todo momento ao usuário, mas que o faça quando automaticamente identificar que há necessidade de intervenção humana”.
A computação ubíqua – em oposição à geograficamente estática – atinge transversalmente as fronteiras da tecnologia da informação contemporânea, possibilitando a discussão e a pesquisa de problemas que antes de serem meramente tecnológicos são desafios humanos. De maneira análoga, a adoção em larga das tecnologias vestíveis já ultrapassou a barreira tecnológica e aguarda o desbravamento de suas barreiras sociais – questões de privacidade, apresentação menos ostensiva etc.
Atualmente, as pessoas tem vários aparelhos pessoais com os quais interagem ao longo do dia, que não apenas entregam as informações, como também devem armazenar parcelas da personalidade do indivíduo – como fotos pessoais, senhas, registros de localização etc. De tão pessoal que é, o usuário não está apenas portando, mas vestindo o aparelho com o qual deve interagir, de maneira que se faz necessário ter ciência dessas idiossincrasias que cada usuário aplica à sua utilização e de design dessas novas experiências para o consumidor final.
A “era da informação” não será dominada por computadores, mas por relações sociais permeadas por microinterações e por filosofias de vida que integrem naturalmente a tecno veste à intimidade das pessoas, por isso deve-se pensá-la para que se adapte à necessidade do usuário, não o contrário. O contrário do que tem sido feito até agora, que teclados de computadores e tablets tem formatos pouco ergométrico e não se ajustam naturalmente às necessidades físicas do usuário, é crucial que fatores como consciência corporal, contextualização temporal e consciência de localização sejam privilegiados.
Para criar uma experiência realmente relevante para as tecnologias vestíveis, não se deve tentar simplesmente transportar a aplicação do smartphone para o Google Glass – como se faz dos celulares para os tablets. De maneira diversa, deve-se pensar especificamente para o Glass que de maneira simples, relevante e atual para que seja possível estar sempre ciente das condições físicas do usuário – como horário, localização, interesses.
Mais que em inovação, o que as pessoas esperam da tecnologia é ofereça praticidade, simplicidade, contextualidade, para que tenham acesso rápido, confiável e acurado para viver melhor, independentemente dos aparatos tecnológicos necessários para isso. A tecno veste, próximo passo da evolução dos computadores, deve estar presente quando necessário e ser imperceptível quando estiver em estado de espera, como o prisma do Google Glass e sua relação com o comando “OK Glass” – ver post sobre o assunto.
O minimalismo como conceito passa do design à experiência do usuário e nos ensina que onde pretende-se privilegiar a produtividade e a individualização da experiência do usuário não há espaço para computação ostensiva, demorada e estática. Portanto, é preciso que transformemos nossas máquinas programadas em computadores inteligentes, que saibam, além de calcular algoritmos, apresentar algum tipo de inteligência, desmistificando a computação tradicional e facilitando nossas atividades diárias.
A computação do futuro está menos baseada na reinvenção dos computadores e mais ligada à evolução da computação atual, por isso esse processo inevitavelmente passará pelas tecnologias vestíveis, que, ao aproximar a tecnologia, deixam-nas imperceptíveis para que o usuário esteja livre para aproveitar plenamente a vida. Aprender, discutir e divulgar essa tecnologia é uma missão que, com o devido apoio, me permite auxiliar a minha comunidade no entendimento e na aculturação da crescente da presença da tecno veste em nossas vidas.
Um Comentário
Pingback: Build Conference: construa com a Microsoft | Tecno Veste
Pingback: Google I/O Extended Brasília 2015, um esforço coletivo para o bem o ecossistema empreendedor | Tecno Veste
Pingback: Glance transforma sua parede em dispositivo inteligente - TecnoVeste
Pingback: Apple TV Tech Talks: desenvolvimento gratuito para smart TV | Tecno Veste – Blog
Pingback: Tecnologias Vestíveis em 2016: conforto, praticidade e produtividade - TecnoVeste
Pingback: Projeto Jacquard: Google e Levi's lançam uma coleção jeans inteligentes | Tecnoveste