domingo, 27 de dezembro de 2015

Carros que nos conduzem

O futuro sem motorista
Sistemas computacionais, sensores, lasers e radares garantem a autonomia de carros e caminhões
EVANILDO DA SILVEIRA | ED. 235 | SETEMBRO 2015





Carros autônomos não se cansam, não se distraem, nem ficam bêbados. Eles prometem transformar a mobilidade urbana. Podem se movimentar sem motorista ao volante, sob o comando de um sistema de controle computacional interligado a sensores e equipamentos. Vão de um local a outro conforme a instrução do usuário. No caminho, devem ser capazes de obter informações do ambiente, como sinalização, pedestres e outros veículos, além de se orientar por sistemas de satélite. A tecnologia para esse fim está em desenvolvimento por meio de vários projetos no mundo, em universidades e centros de pesquisa e na própria indústria automobilística. No Brasil existem alguns projetos desse tipo em instituições científicas, dos quais pelo menos um em parceria com uma fabricante de veículos.

A Scania investiu R$ 1,2 milhão em um projeto para desenvolver um caminhão robótico em parceria com pesquisadores da Universidade de São Paulo (USP), campus de São Carlos. O modelo cedido pela empresa sueca aos pesquisadores para o trabalho, iniciado em 2013, é o G360, de 9 toneladas. Para torná-lo autônomo, a equipe do Instituto de Ciências Matemáticas e de Computação (ICMC), liderada pelo cientista da computação Denis Fernando Wolf, teve que fazer alterações mecânicas e instalar sensores e sistemas eletrônicos. “Acoplamos pequenos motores elétricos no volante e nos freios e um chip no comando do acelerador para poder controlar as manobras e a velocidade”, explica. Além disso, o caminhão foi equipado com sistema de câmeras estéreo e aparelho GPS (sistema de posicionamento global) de alta precisão, que dá a direção e a posição do veículo com margem de erro de 5 centímetros (cm). São três câmeras, instaladas na frente do caminhão, a 1,5 metro (m) de altura e a 20 cm uma da outra, que funcionam, duas de cada vez, como uma só, a exemplo dos olhos humanos, tornando possível estimar a distância dos objetos da imagem.

Há ainda um radar, que identifica obstáculos em situação de baixa visibilidade. De acordo com Wolf, os dois tipos de equipamento se complementam. O radar detecta, a longa distância, a presença ou não de obstáculos. As câmeras são mais precisas e sensíveis, podendo identificar a sinalização horizontal da faixa de trânsito ou semáforo e distinguir cores e texturas, além de pessoas e animais na pista. Mas, por si sós, esses aparelhos não são capazes de dirigir o caminhão, sendo necessário o “cérebro”: um computador. Instalado atrás do banco do motorista, ele recebe os dados dos sensores e os processa, controlando o veículo em tempo real.

Carro desenvolvido pela Google: já nasceu autônomo
Veículos sustentáveis

Rogério Rezende, diretor de Assuntos Institucionais e Governamentais da Scania Latin America, explica que o principal objetivo da parceria não foi comercial. “Nós investimos em projetos de pesquisa e desenvolvimento em todo o mundo e o autônomo, em parceria com a USP de São Carlos, está dentro deste cenário”, conta. “A ideia é gerar conhecimento, fundamental para promover um transporte sustentável.”

Além do caminhão, a equipe de Wolf trabalha em outro projeto, o Carro Robótico Inteligente para Navegação Autônoma (Carina), que começou em 2011, com apoio da FAPESP e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), no âmbito do Instituto Nacional de Ciência e Tecnologia em Sistemas Embarcados (INCT-SEC). Enquanto o objetivo do projeto do caminhão era demonstrar que é possível desenvolver a tecnologia no Brasil ao menor custo possível, preservando a funcionalidade, o pesquisador explica que o Carina é uma plataforma de pesquisa.  “Quanto mais sensores, e mais sofisticados eles forem, melhores as condições para fazer pesquisa de ponta.”

O Carina é equipado com duas câmeras (em estéreo), GPS de precisão e uma unidade inercial (um tipo de bússola em 3D). Possui ainda um emissor de laser giratório no teto, que lança 32 feixes que fazem uma varredura identificando tudo que está em torno, criando uma espécie de mapa em 3D do caminho percorrido. Em outubro de 2013 o veículo foi testado nas ruas de São Carlos, sem ninguém no banco do motorista (ver Pesquisa FAPESP nº 213). “Foi o primeiro da América Latina a fazer um teste desses, em vias urbanas”, orgulha-se Wolf. “Até então, isso só havia ocorrido em pouquíssimas cidades dos Estados Unidos, França e Alemanha.”

O trecho que o Carina deveria percorrer era de 3 quilômetros (km), mas o total trafegado chega perto de 30 km. A próxima missão do carro deverá acontecer até o fim do ano. Ele está sendo preparado para ser usado como transporte autônomo dentro do campus da USP de São Carlos, demonstrando a tecnologia desenvolvida por quem queira testá-lo. Para isso, será desenvolvido um aplicativo pelo qual interessados no serviço chamam o veículo. Uma vez nele, o passageiro indicará o destino por meio de uma tela sensível ao toque. Ao fim da corrida, o automóvel retornará para seu ponto de estacionamento à espera de outra chamada.

Pesquisadores da Universidade Federal do Espírito Santo (Ufes) também desenvolvem um veículo robótico, o Iara. O projeto começou em 2009, no Laboratório de Computação de Alto Desempenho (LCDA), com um pequeno carro-robô e um objetivo amplo: entender como o ser humano consegue dirigir usando sua capacidade visual e destreza para controlar o automóvel. Essa etapa contou com financiamento da Fundação de Amparo à Pesquisa do Espírito Santo (Fapes). Em setembro de 2012, a equipe importou dos Estados Unidos um carro híbrido, a eletricidade e a gasolina. Para essa segunda fase, que se estenderá até dezembro, o apoio é do CNPq. Parte da adaptação do carro para as pesquisas, como volante, freio e câmbio especiais para veículo autônomo, já chegou pronta ao Brasil. “Os outros equipamentos nós adicionamos”, conta o coordenador do projeto, Alberto Ferreira de Souza. Entre eles, está um emissor de laser em cima do Iara, semelhante ao do Carina. Além disso, ele possui GPS de precisão e várias câmeras agrupadas aos pares ao seu redor, que funcionam como o olho humano. O grupo da Ufes desenvolveu o software que faz o controle do carro, que já deu uma volta completa no campus da Ufes, em um trajeto de 3,8 km. O próximo objetivo é uma viagem autônoma do veículo de Vitória a Guarapari, a 50 km de distância.

Carina na USP de São Carlos: laser giratório no teto
História e seguro

No Departamento de Engenharia de Transportes da Escola Politécnica da Universidade de São Paulo (Poli-USP), o professor Edvaldo Simões da Fonseca Júnior coordena um grupo de alunos de pós-graduação que desenvolve alguns projetos na área de navegação autônoma, usando pequenos carrinhos de 80 cm de comprimento. “Uma das pesquisas usa GPS para fazer o veículo se deslocar entre dois pontos”, conta. “Outra criou um carrinho que pode se deslocar no interior de espaços fechados, como um prédio, onde o GPS não funciona, guiando-se por uma rede wi-fi, e poderá ser útil no interior de minas, por exemplo.”

Fonseca acompanha o assunto há anos e lembra que os carros robóticos têm uma história antiga. No artigo “Veículos autônomos: conceitos, histórico e estado da arte”, apresentado em 2013 no Congresso de Pesquisa e Ensino de Transportes, assinado com seus colegas de departamento Rodrigo de Sousa Pissardini e Daniel Chin Min Wei, Fonseca relata que a primeira vez em que se falou em automação nos transportes foi em 1939, durante a Feira Mundial de Nova York, nos Estados Unidos. Previa-se o mundo dali a 20 anos, exibindo “um protótipo de sistema de rodovias automatizado, onde as estradas corrigiriam as falhas de condução humanas, impedindo ações que não pudessem ser realizadas”. Desde então, as pesquisas evoluíram, principalmente com o surgimento da área de robótica móvel. Em 1985 surgiu, segundo o artigo, o protótipo VaMoRs, uma van Mercedes-Benz equipada com câmeras e outros sensores, na qual a direção e outros componentes eram controlados por comandos computacionais. O veículo podia, de forma autônoma, atingir até 100 km/h em vias sem tráfego. A partir de então, várias outras empresas da indústria automobilística, como Nissan, Volvo, Volkswagen e BMW, começaram a desenvolver automóveis robóticos. Um dos mais avançados é de uma novata no setor, a gigante de tecnologia Google. A empresa começou as pesquisas em 2010, adaptando modelos do mercado. Hoje ela tem seu próprio carro, que se assemelha ao Fiat 500, mas é menor. Esses veículos também têm um conjunto de sensores com radares, GPS e câmeras. Os carros da Google possuem um equipamento chamado de telêmetro [um dispositivo óptico usado para medir a distância entre o observador e um ponto qualquer] a laser instalado sobre o teto, que gera um mapa tridimensional do ambiente.

Desenvolver a tecnologia e construir os carros autônomos não basta para que seu uso se torne realidade. Antes de colocá-los nas ruas é preciso discutir as regras que vão regular seu tráfego e definir as responsabilidades legais em caso de acidentes. Embora teoricamente eles sejam menos sujeitos a falhas e erros, não há garantias absolutas. “O carro autônomo vai ser feito para não infringir regras e não causar acidentes, mas ele pode ter uma pane e bater em outro veículo ou atropelar alguém. E aí quem será o responsável? Quem o comprou, quem o fabricou? Vai ter um seguro? Não sabemos ainda”, diz Fonseca.

Wolf lembra de outras questões que terão de ser resolvidas. “A tecnologia para construí-los está praticamente pronta, mas sua adoção em larga escala vai depender muito do mercado”, diz. “É preciso esperar para ver se interessará à indústria automotiva.”

Apesar de ainda não estarem à venda – o que deve demorar alguns anos –, os veículos robóticos têm contribuído para introduzir, de forma sutil, a automação no caótico trânsito das grandes metrópoles. Entre os exemplos mais marcantes, Fonseca cita o cruise control, que mantém o veículo na mesma velocidade, o freio ABS, que evita que a roda trave e derrape, oautomatic parking, que estaciona o carro usando sensores, e sistemas anticolisão com radares ou câmeras para detectar uma colisão iminente. A autonomia está chegando aos poucos. n
Projetos
1.
 Instituto Nacional de Ciência e Tecnologia de Sistemas Embarcados Críticos (INCT-SEC) (n° 2008/57870-9);Modalidade Projeto Temático-INCT; Pesquisador Responsável José Carlos Maldonado (USP); Investimento R$ 2.639.677,06 (para todo o INCT-SEC) (FAPESP/CNPq).
2. A Collaborative Effort For Safer And More Efficient Transportation With Intelligent Vehicles (FAPESP-OSU/2013) (n° 2013/50332-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Denis Wolf (USP); Investimento R$ 21.660,00.
3. Projeto Carina – Carro Robótico Inteligente para Navegação Autônoma (n° 2011/10660-2); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Denis Wolf (USP); Investimento R$ 55.753,20.
4. Projeto CaRINA – Localização e Controle (nº 2013/24542-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Denis Wolf (USP); Investimento R$ 61.412,95 e US$ 15.840,10.


sexta-feira, 18 de dezembro de 2015

Ação fantasmagórica a distancia (Einstein)

Algoritmo quântico é mais eficaz do que análogos clássicos













NASA Ames/John Hardman
Computador quântico: estudo foi conduzido por pesquisadores turcos e brasileiros e publicado na revista Scientific Reports

José Tadeu Arantes, da
computador quântico poderá deixar de ser um sonho e se tornar realidade nos próximos 10 anos. A expectativa é que isso traga uma drástica redução no tempo de processamento, já que algoritmos quânticos oferecem soluções mais eficientes para certas tarefas computacionais do que quaisquer algoritmos clássicos correspondentes.
Até agora, acreditava-se que a chave da computação quântica eram as correlações entre dois ou mais sistemas. Exemplo de correlação quântica é o processo de “emaranhamento”, que ocorre quando pares ou grupos de partículas são gerados ou interagem de tal maneira que o estado quântico de cada partícula não pode ser descrito independentemente, já que depende do conjunto (Para mais informações veja agencia.fapesp.br/20553/).
Um estudo recente mostrou, no entanto, que mesmo um sistema quântico isolado, ou seja, sem correlações com outros sistemas, é suficiente para implementar um algoritmo quântico mais rápido do que o seu análogo clássico.
Artigo descrevendo o estudo foi publicado no início de outubro deste ano na revista Scientific Reports, do grupo Nature: Computational speed-up with a single qudit.
O trabalho, ao mesmo tempo teórico e experimental, partiu de uma ideia apresentada pelo físico Mehmet Zafer Gedik, da Sabancı Üniversitesi, de Istambul, Turquia. E foi realizado mediante colaboração entre pesquisadores turcos e brasileiros.
Felipe Fernandes Fanchini, da Faculdade de Ciências da Universidade Estadual Paulista (Unesp), no campus de Bauru, é um dos signatários do artigo. Sua participação no estudo se deu no âmbito do projeto Controle quântico em sistemas dissipativos, apoiado pela FAPESP.
“Este trabalho traz uma importante contribuição para o debate sobre qual é o recurso responsável pelo poder de processamento superior dos computadores quânticos”, disse Fanchini à Agência FAPESP.
“Partindo da ideia de Gedik, realizamos no Brasil um experimento, utilizando o sistema de ressonância magnética nuclear (RMN) da Universidade de São Paulo (USP) em São Carlos. Houve, então, a colaboração de pesquisadores de três universidades: Sabanci, Unesp e USP. E demonstramos que um circuito quântico dotado de um único sistema físico, com três ou mais níveis de energia, pode determinar a paridade de uma permutação numérica avaliando apenas uma vez a função. Isso é impensável em um protocolo clássico.”
Segundo Fanchini, o que Gedik propôs foi um algoritmo quântico muito simples que, basicamente, determina a paridade de uma sequência.
O conceito de paridade é utilizado para informar se uma sequência está em determinada ordem ou não. Por exemplo, se tomarmos os algarismos 1, 2 e 3 e estabelecermos que a sequência 1- 2-3 está em ordem, as sequências 2-3-1 e 3-1-2, resultantes de permutações cíclicas dos algarismos, estarão na mesma ordem.
Isso é fácil de entender se imaginarmos os algarismos dispostos em uma circunferência. Dada a primeira sequência, basta girar uma vez em um sentido para obter a sequência seguinte, e girar mais uma vez para obter a outra.
Porém, as sequências 1-3-2, 3-2-1 e 2-1-3 necessitam, para serem criadas, de permutações acíclicas.
Então, se convencionarmos que as três primeiras sequências são “pares”, as outras três serão “ímpares”.
“Em termos clássicos, a observação de um único algarismo, ou seja uma única medida, não permite dizer se a sequência é par ou ímpar. Para isso, é preciso realizar ao menos duas observações. O que Gedik demonstrou foi que, em termos quânticos, uma única medida é suficiente para determinar a paridade. Por isso, o algoritmo quântico é mais rápido do que qualquer equivalente clássico. E esse algoritmo pode ser concretizado por meio de uma única partícula. O que significa que sua eficiência não depende de nenhum tipo de correlação quântica”, informou Fanchini.
O algoritmo em pauta não diz qual é a sequência. Mas informa se ela é par ou ímpar. Isso só é possível quando existem três ou mais níveis. Porque, havendo apenas dois níveis, algo do tipo 1-2 ou 2-1, não é possível definir uma sequência par ou ímpar.
“Nos últimos tempos, a comunidade voltada para a computação quântica vem explorando um conceito-chave da teoria quântica, que é o conceito de ‘contextualidade’. Como a ‘contextualidade’ também só opera a partir de três ou mais níveis, suspeitamos que ela possa estar por trás da eficácia de nosso algoritmo”, acrescentou o pesquisador.
Conceito de contextulidade
“O conceito de ‘contextualidade’ pode ser melhor entendido comparando-se as ideias de mensuração da física clássica e da física quântica. Na física clássica, supõe-se que a mensuração nada mais faça do que desvelar características previamente possuídas pelo sistema que está sendo medido. Por exemplo, um determinado comprimento ou uma determinada massa. Já na física quântica, o resultado da mensuração não depende apenas da característica que está sendo medida, mas também de como foi organizada a mensuração, e de todas as mensurações anteriores. Ou seja, o resultado depende do contexto do experimento. E a ‘contextualidade’ é a grandeza que descreve esse contexto”, explicou Fanchini.
Na história da física, a “contextualidade” foi reconhecida como uma característica necessária da teoria quântica por meio do famoso Teorema de Bell.
Segundo esse teorema, publicado em 1964 pelo físico irlandês John Stewart Bell (1928 – 1990), nenhuma teoria física baseada em variáveis locais pode reproduzir todas as predições da mecânica quântica. Em outras palavras, os fenômenos físicos não podem ser descritos em termos estritamente locais, uma vez que expressam a totalidade.
“É importante frisar que em outro artigo [Contextuality supplies the ‘magic’ for quantum computation] publicado na Nature em junho de 2014, aponta a contextualidade como a possível fonte do poder da computação quântica.
Nosso estudo vai no mesmo sentido, apresentando um algoritmo concreto e mais eficiente do que qualquer um jamais imaginável nos moldes clássicos.”


sábado, 5 de dezembro de 2015

Sistema em Unidades de Processamento Gráfico funcionando como cérebros humanos...

10 tendências tecnológicas de alto impacto para 2016, segundo a Gartner
luiz.mazetto@nowdigital.com.br
Consultoria aponta conceitos que afetarão os planos, os programas e as iniciativas das empresas a partir do próximo ano.




O Gartner ligou sua bola de cristal e liberou previsões tecnológicas para 2016. A consultoria listou dez tendências que possuem potencial de influenciar significativamente as organizações em um horizonte de doze meses.
Fatores que denotam o impacto desses conceitos incluem a elevada possibilidade de interferência nos negócios, nos usuários finais ou na TI; a necessidade de grande investimento; ou o risco de ser tarde demais para adotá-lo. Na visão de analistas, essas tecnologias afetam os planos, os programas e as iniciativas das empresas em longo prazo.
As três primeiras apostas do Gartner abordam a fusão dos mundos físico e virtual e o surgimento da malha digital. “Enquanto as organizações se concentram nos mercados digitais, o negócio algorítmico está surgindo – e logo essas relações e interligações definirão o futuro dos negócios”, afirma.
De acordo com a consultoria, no mundo algorítmico, muitas coisas acontecem em um plano em que as pessoas não estão diretamente envolvidas. Isso é possibilitado por máquinas inteligentes, abordadas pelas três tendências seguintes.
As quatro últimas tendências apresentadas se referem à nova realidade de TI, com a arquitetura e a plataforma de tendências necessárias para apoiar os negócios digitais e algorítmico.
1. Malha de dispositivos - O termo ‘malha de dispositivos’ refere-se a um extenso conjunto de pontos utilizados para acessar aplicativos e informações ou para interagir com pessoas, redes sociais, governos e empresas. Ele inclui dispositivos móveis, wearables (tecnologias para vestir), aparelhos eletrônicos de consumo e domésticos, dispositivos automotivos e ambientais – tais como os sensores da Internet das Coisas (IoT).

"O foco está no usuário móvel, que é cercado por uma malha de dispositivos que se estende muito além dos meios tradicionais", diz David Cearley, vice-presidente do Gartner. Segundo ele, embora os dispositivos estejam cada vez mais ligados a sistemas back-end por meio de diversas redes, eles muitas vezes operam isoladamente. Como a malha evolui, esperamos que surjam modelos de conexão para expandir e aprimorar a interação cooperativa entre os dispositivos.
2. Experiência ambiente-usuário - A malha de dispositivos estabelece a base para uma nova experiência de usuário contínua e de ambiente. Locais imersivos, que fornecem realidade virtual e aumentada, possuem potencial significativo, mas são apenas um aspecto da experiência. A vivência ambiente-usuário preserva a continuidade por meio das fronteiras da malha de dispositivos, tempo e espaço. A experiência flui regularmente em um conjunto de dispositivos de deslocamento e canais de interação, misturando ambiente físico, virtual e eletrônico, ao passo que o usuário se move de um lugar para outro.

"Projetar aplicativos móveis continua sendo um importante foco estratégico para a empresa. No entanto, o projeto objetiva fornecer uma experiência que flui e explora diferentes dispositivos, incluindo sensores da Internet das Coisas e objetos comuns, como automóveis, ou mesmo fábricas. Projetar essas experiências avançadas será um grande diferencial para fabricantes independentes de software (ISVs) e empresas similares até 2018", afirma Cearley.
3. Impressão 3D - Os investimentos em impressão 3D (três dimensões) já possibilitaram o uso de uma ampla gama de materiais, incluindo ligas avançadas de níquel, fibra de carbono, vidro, tinta condutora, eletrônicos, materiais farmacêuticos e biológicos. Essas inovações estão impulsionando a demanda do usuário, e as aplicações práticas estão se expandindo para mais setores, incluindo o aeroespacial, médico, automotivo, de energia e militar. A crescente oferta de materiais conduzirá a uma taxa de crescimento anual de 64,1% em carregamentos de impressoras 3D empresariais até 2019. Esses avanços exigirão uma reformulação nos processos de linha de montagem e na cadeia de suprimentos.

"Ao longo dos próximos 20 anos, a impressão 3D terá uma expansão constante dos materiais que podem ser impressos, além do aprimoramento da velocidade com que os itens podem ser copiados e do surgimento de novos modelos para imprimir e montar peças", estima o analista.
4. Informação de tudo - Tudo na malha digital produz, utiliza e transmite informação. Esses dados vão além da informação textual, de áudio e de vídeo, incluindo informações sensoriais e contextuais. O termo ‘informação de tudo’ aborda essa afluência com estratégias e tecnologias para conectar dados de todas essas diferentes fontes.

A informação sempre existiu em toda parte, mas muitas vezes isolada, incompleta, indisponível ou ininteligível. Os avanços nas ferramentas semânticas, como bancos de dados de gráfico e outras técnicas de análise de classificação e de informação emergente, trarão significado para o dilúvio, muitas vezes caótico, de informações.
5. Aprendizagem avançada de máquina - No aprendizado avançado de máquina, as Redes Neurais Profundas (DNN) movem-se além da computação clássica e da gestão da informação, criando sistemas que podem aprender a perceber o mundo de forma autônoma.

As múltiplas fontes de dados e a complexidade da informação tornam inviáveis e não rentáveis a classificação e a análise manual. As DNNs automatizam essas tarefas e possibilitam a abordagem de desafios-chave relacionados a tendências.
As DNNs são uma forma avançada de aprendizado de máquina particularmente aplicável a conjuntos de dados grandes e complexos, e fazem equipamentos inteligentes aparentarem ser ‘inteligentes’. Elas permitem que sistemas de hardware ou baseados em software aprendam por si mesmos todos os recursos em seu ambiente, desde os menores detalhes até grandes classes abstratas de conteúdo de varredura.
Essa área está evoluindo rapidamente, e as organizações devem avaliar como aplicar essas tecnologias para obter vantagem competitiva.
6. Agentes e equipamentos autônomos - O aprendizado de máquina dá origem a um espectro de implementações de equipamentos inteligentes – incluindo robôs, veículos, Assistentes Pessoais Virtuais (APV) e assessores inteligentes –, que atuam de forma autônoma ou, pelo menos, semiautônoma. Embora os avanços em máquinas inteligentes físicas, como robôs, chamem a atenção, elas, quando baseadas em software apresentam um retorno mais rápido e impacto mais amplo.

Assistentes Pessoais Virtuais como o Google Now, o Cortana da Microsoft e o Siri da Apple estão se tornando mais inteligentes e são precursores de agentes autônomos. O surgimento da noção de assistência alimenta a experiência usuário-ambiente, no qual um agente autônomo se torna a interface com o usuário principal. Em vez de interagir com menus, formulários e botões em um smartphone, o indivíduo fala com um aplicativo, que é realmente um agente inteligente.
"Ao longo dos próximos cinco anos evoluiremos para um mundo pós-aplicativos, com agentes inteligentes fornecendo ações e interfaces dinâmicas e contextuais. Os líderes de TI devem explorar como usar equipamentos e agentes autônomos para aumentar a atividade, permitindo que as pessoas façam apenas os trabalhos que humanos podem fazer. No entanto, eles devem reconhecer que agentes e equipamentos inteligentes são um fenômeno de longo prazo, que evoluirá continuamente e expandirá seus usos nos próximos 20 anos", projeta o vice-presidente do Gartner.
7. Arquitetura de segurança adaptativa - As complexidades dos negócios digitais e a economia algorítmica, combinadas com uma ‘indústria hacker’ emergente, aumentam significativamente a superfície de ameaça às organizações. Basear-se no perímetro de defesa fundamentado em regras é pouco, especialmente pelo fato de que as empresas exploram muitos serviços baseados em nuvem e Interfaces de Programação de Aplicação (API) abertas para clientes e parceiros de integração com seus sistemas.

Os líderes de TI devem concentrar-se em detectar e responder às ameaças, assim como no bloqueio mais tradicional e em outras medidas para prevenir ataques. A autoproteção de aplicativos e a análise de comportamento de usuários e entidades ajudarão a cumprir a arquitetura de segurança adaptativa.
8. Arquitetura de sistema avançado - A malha digital e as máquinas inteligentes requerem demandas intensas de arquitetura de computação para torná-las viáveis para as organizações. Isso aciona um impulso em arquitetura neuromórfica ultraeficiente e de alta potência. Alimentada por matrizes de Portas Programáveis em Campo (FPGA) como tecnologia subjacente, ela possibilita ganhos significativos, como a execução em velocidades de mais de um teraflop com alta eficiência energética.

"Sistemas construídos em Unidades de Processamento Gráfico (GPU) e FPGAs funcionarão como cérebros humanos, particularmente adequados para serem aplicados à aprendizagem profunda e a outros algoritmos de correspondência de padrão usados pelas máquinas inteligentes. A arquitetura baseada em FPGA possibilitará uma maior distribuição de algoritmos em formatos menores, usando consideravelmente menos energia elétrica na malha de dispositivo e permitindo que as capacidades avançadas de aprendizado da máquina sejam proliferadas nos mais ínfimos pontos finais da Internet das Coisas, tais como residências, carros, relógios de pulso e até mesmo seres humanos", afirma Cearley.
9. Aplicativo de rede e arquitetura de serviço - Designs monolíticos de aplicação linear, como arquitetura de três camadas, estão dando lugar a uma abordagem integrativa de acoplamento mais informal: aplicativos e serviços de arquitetura. Ativada por serviços de aplicativos definidos por software, essa nova abordagem permite desempenho, flexibilidade e agilidade como as da web.

A arquitetura de microsserviços é um padrão emergente para a criação de aplicações distribuídas, que suportam o fornecimento ágil e a implantação escalável tanto no local quanto na cloud. Contêineres estão emergindo como uma tecnologia essencial para permitir o desenvolvimento e a arquitetura de microsserviços ágeis. Levar elementos móveis e de IoT para a arquitetura de aplicativos cria um modelo abrangente para lidar com a escalabilidade em nuvem de back-end e a experiência de malha de dispositivos de front-end.
Equipes de aplicativos devem criar arquiteturas modernas para fornecer utilitários baseados em nuvem que sejam ágeis, flexíveis e dinâmicos, com experiências de usuário também ágeis, flexíveis e dinâmicas abrangendo a malha digital.
10. Plataformas de Internet das Coisas (IoT) - As plataformas de IoT complementam o aplicativo de rede e a arquitetura de serviço. Gerenciamento, segurança, integração e outras tecnologias e padrões da plataforma são um conjunto básico de competências para elementos de criação, gestão e fixação na Internet das Coisas.

Essas plataformas constituem o trabalho que a equipe de TI faz nos bastidores, de um ponto de vista arquitetônico e tecnológico, para tornar a IoT uma realidade. A Internet das Coisas é parte da malha digital, que inclui a experiência do usuário, e o ambiente do mundo emergente e dinâmico das plataformas é o que a torna possível. 
"Qualquer empresa que adote a IoT precisará desenvolver uma estratégia de plataforma, porém abordagens incompletas de provedores concorrentes dificultarão sua implementação até 2018", projeta Cearley.