Há alguns anos escrevi um artigo aqui no AE intitulado “Brincando de adivinhar o futuro”. Ocorre que há ainda toda uma série de implicações vindas da convergência tecnológica que não foram exploradas no texto, que tem impacto em nossas vidas, e que sutilmente vem ocorrendo por todo lado.

Seria importante reler aquele texto antes de prosseguir aqui. Só assim, leitor, você terá uma noção melhor de muitos fatos que andam acontecendo à nossa volta.

A convergência tecnológica é complexamente simples

Em tese, toda tecnologia converge para a melhor solução, porém ela tem sua própria forma de convergir. Vimos isso no exemplo da chave combinada no texto anterior. O lado das chaves de boca convergiram há anos, mas o lado das chaves estrela ainda eram bastante diferentes e mais afastadas da convergência.

Entretanto, todo processo de convergência tecnológica possui determinadas características que são comuns, qualquer que seja o processo. Essas características se acumulam em fases e ditam a vida da tecnologia. Como os seres humanos, as tecnologias nascem, crescem, amadurecem, envelhecem e por fim, desaparecem. Entretanto, não há um prazo para que as fases essas tecnologias ocorram. É possível, dentro de certos parâmetros, prever como uma tecnologia irá maturar e envelhecer, mas é muito difícil prever quando isso irá ocorrer.

As fases de vida de uma tecnologia

Vamos contar a história de uma tecnologia genérica. Primeiro alguém propôs a ideia original. Muitas vezes a ideia possui barreiras tecnológicas intransponíveis para a época, e fica apenas no campo teórico. Esta é a primeira fase da vida de uma tecnologia.

Ao longo dos anos, a tecnologia vai avançando e as barreiras tecnológicas são aos poucos derrubadas, até que alguém faz o primeiro protótipo de um dispositivo que usa aquela tecnologia. Este dispositivo é canhestro e muito ineficiente. Esta é a segunda fase.

Na terceira fase, temos uma etapa de aprendizado, onde os engenheiros aprendem as propriedades próprias daquela tecnologia e começam a explorar potencialidades dela, e como resultado, ela se consolida e se torna mais confiável.

Chegamos então à quarta fase, a fase da maturidade. Esta fase é altamente crítica. Quando uma tecnologia surge, os primeiros melhoramentos são sempre os mais simples e baratos, mas garantem um salto enorme de eficiência. Entretanto, toda tecnologia tem um limite ideal de funcionalidade que é impossível de ser alcançado, mas é bem determinado. Cada passo de evolução da tecnologia a aproxima do seu limite, e quanto mais próximo do seu limite, os próximos passos serão menores, mais difíceis e mais caros e as soluções para alcançá-los se tornam cada vez mais complexas, até o ponto em que sua evolução se torna técnica e/ou economicamente inviável.

Atingida a maturidade, torna-se muito difícil evoluir em termos práticos, e então teremos dois caminhos possíveis:

– O da estabilidade (e muitas vezes a estagnação), quando continuamos usando aquela tecnologia dentro daqueles limites por anos a fio, ou;
– A da decadência, quando uma nova tecnologia surge e tem potencial muito maior para substituir a tecnologia antiga, que aos poucos vai sendo abandonada em prol da nova.

Podemos dizer que a fase de estabilidade é a quinta fase e a decadência seria a sexta fase da vida desta tecnologia.

Embora essas fases sejam bem definidas, o tempo que cada tecnologia para em cada uma delas pode variar muito, e o progresso dessa tecnologia pode sofrer todo tipo de tropeço em limitações tecnológicas, incluindo situações onde a decadência é prematura, quer seja porque a barreira é intransponível, quer porque uma tecnologia concorrente muito mais poderosa tomou a liderança do processo. Conhecer essas fases é fundamental para qualquer engenheiro, e da mesma forma para nós, mortais consumidores.

Segundo os bons historiadores da ciência e da tecnologia, quando uma tecnologia amadurece e sua complexidade cresce a taxas insanas em busca de ganhos de desempenhos cada vez mais pífios, então temos um sinal claro de que ela  amadureceu e está caminhando rapidamente para o ponto em que não é mais justificável do ponto de vista prático que ela continue evoluindo.

Este é um ponto importante que temos que observar quando precisamos fazer previsões sobre tecnologias.

Um exemplo bem claro

Acredito que muitos dos leitores tenham idade para lembrar como a indústria da informática avançou nos últimos anos e como agora, com o esgotamento da Lei de Moore, os computadores avançam lentamente em desempenho. Seria um exemplo vívido para muitos, mas dada a complexidade natural dessa tecnologia, prefiro usar outra, onde o processo evolutivo é bem evidente.

Vamos então tomar como exemplo para entendermos estes mecanismos, a aviação desde seus primórdios.

O primeiro estágio ocorreu com os pioneiros: Irmãos Wright, nosso Santos Dumont e tantos outros. Eles foram os primeiros a voar, e cada um fazia uma configuração de aeronave completamente díspare dos seus concorrentes. Faltava conhecimento técnico refinado e cada um fazia do jeito que achava certo, e as máquinas eram muito precárias.

No segundo estágio, vemos as aeronaves evoluindo para os biplanos usados na Primeira Guerra Mundial. Ainda eram máquinas precárias, mas ainda assim já apresentavam certa padronização de forma e de desempenho, sinal de grande evolução e já apresentando fortes indícios de convergência.

As décadas seguintes foram de forte evolução, sendo a mais notável a migração da conformação de biplano para monoplano.

Podemos dizer que a Segunda Guerra Mundial foi o ápice dos aviões com propulsão por motores a pistão e toda limitação que eles impunham.

Veio então a era do jato. A propulsão a jato não apenas revolucionou a forma como os aviões eram propelidos, mas o aumento constante da potência logo impôs melhorias na parte aerodinâmica e estrutural das aeronaves e relegando os aviões a pistão para aplicações menos nobres.

O aumento da potência dos aviões se torna um marco com a quebra da barreira do som com o avião experimental X-1, movido a foguete.

Os grandes ganhos em potência criam uma situação insólita. Aviões eram postos em serviço já tornados obsoletos. Como o projeto de uma aeronave demorava anos e os avanços tecnológicos no setor eram muito grandes, havia uma disparidade enorme entre um avião recém-lançado e o potencial da tecnologia naquela época.

Um dos marcos que ilustra bem os problemas desta fase foram os caças a jato Grumman F9F Panther convertido na versão F9 Cougar ainda na linha de produção.


Os avanços em propulsão a jato e aerodinâmica (principalmente pela reavaliação das pesquisas alemãs durante a Segunda Guerra Mundial) dentro da própria Grumman pegaram a linha de produção de surpresa, e muitos Panther em construção, com asas retas, foram convertidos para Panther, com asas enflexadas, ainda na linha de montagem.

Então vieram os anos 1960 e as coisas começaram a desacelerar. Muitos aviões militares projetados nos anos 1960 se mantiveram em operação por muitos anos. Os F-14 Tomcat, — conhecidos pelo filme “Ases indomáveis” (“Top Gun”) — só foram desativados em 2006, e seu contemporâneo F-15 ainda continua em operação. Muitos B-52, bombardeiro estratégico subsônico projetado nos anos 1950, também continuam em operação, e ainda há previsão que sejam mantidos na linha de frente até os anos 2040.

Do lado da aviação civil, um bom exemplo são os Boeing 737 e 747. O 737 entrou em operação comercial em 1968 e o 747 fez seu primeiro voo comercial em 1970 e manteve o recorde de transporte de passageiros por 37 anos.

Os Boeing 737 e 747 mostram um aspecto muito interessante do processo evolutivo das tecnologias. Esses aviões foram sendo refinados e receberam atualizações tecnológicas e até mesmo sendo reprojetados ao longo dos anos, porém a essência do projeto básico delas ficou inalterado até hoje.

Novos motores mais potentes e mais econômicos, novos materiais de construção mecânica, eletrônica para voos mais seguros, novas estruturas, ampliação da capacidade de passageiros etc. Sim, os 737 e os 747 evoluíram muito em relação às unidades pioneiras de quase 50 anos atrás, mas eles continuem em sua essência os mesmos 737 e 747 do seu lançamento.

O que isso nos diz exatamente? A longevidade desses projetos mostra que estas aeronaves, em sua essência tecnológica, atingiram um nível de aprimoramento onde não se justificam sua substituição por modelos melhores. Qualquer modelo mais novo ofereceria pouco a mais em troca e forçaria tanto o fabricante como as empresas que operam essas aviões à uma troca completa de equipamentos de voo e de terra.
Simplesmente, esses aviões já são bons o bastante e não precisam ser substituídos, mesmo 50 anos após serem projetados. É a maturidade tecnológica, que cria um padrão que nos diz que, a menos que surja alguma revolução tecnológica significativa, esses aviões ainda serão o padrão da aviação de passageiros ainda por mais 20 ou 30 anos.

Demos um passo à frente e vamos olhar o caso do Concorde. O supersônico nasceu dentro dos sonhos ufanistas dos anos 1960, onde o futuro parecia bater à nossa porta. Viajar acima da velocidade do som, encurtando distâncias e tornando o mundo pequeno, era uma das grandes promessas que a ciência e a tecnologia faziam naqueles anos ufanistas.

Concorde: projeto ufanista

E ele não estava sozinho. Russos (com o Tupolev TU-144) e americanos (com o Boeing 2707) fizeram suas versões do Concorde. Entretanto, a versão americana feita pela Boeing foi abandonada quando o primeiro protótipo estava pela metade.  Já o concorrente russo fez pouquíssimos voos comerciais após um acidente fatal na exposição de Le Bourget (França) em 1973.

Contra o Concorde e seus concorrente havia uma barreira tecnológica. O consumo de combustível de uma aeronave aumenta com o quadrado da velocidade, e voar a 2 Mach consome muito combustível, tornando a operação do aparelho muito cara, com reflexo direto no preço da passagem.

Russos e americanos desistiram quando perceberam que esta barreira seria intransponível em tempos práticos, porém ingleses e franceses persistiram no uso do Concorde, e ele nunca foi realmente um sucesso comercial. Mesmo atarefados milionários atarefados preferiam voar longas horas no conforto da primeira classe de um 747 por um preço mais em conta que se apertar nos bancos do Concorde numa viagem mais rápida.

Já havia discussão sobre a desativação do Concorde quando então um acidente levou à desativação definitiva da aeronave em 2003.

O exemplo do Concorde nos faz dar um passo à frente do que aprendemos com o F-15 e o 747. Voar comercialmente em velocidade supersônica é tecnicamente possível, mas fazê-lo de forma economicamente viável ainda não. Esta é uma barreira tecnológica ainda intransponível. Russos e americanos perceberam isso logo, mas os europeus se agarraram às promessas do voo supersônico, e pagaram caro por isso.

Reparem que o Concorde passou por um período de mais de 10 anos entre o começo do projeto e a entrada em operação, mais quase 20 anos de operação comercial e mais 13 anos entre sua desativação e os dias atuais, totalizando quase 50 anos de sua história. Durante todo esse tempo, fazer outro avião supersônico de passageiros sempre foi tecnicamente possível, mas nenhum outro concorrente real apareceu para cruzar os céus. A barreira tecnológica do voo supersônico econômico continua lá, e nenhum novo fato técnico recente mudou este fato.

Aqui temos um fenômeno a entender. É evidente que há grande interesse comercial e prático em viagens cada vez mais rápidas e cada vez mais econômicas. Há certamente muitos profissionais do mais alto gabarito se esforçando para atingir esse objetivo. Entretanto, diferente do que costumamos pensar, há aqui uma barreira que não foi vencida mesmo sob tanto esforço por tanta gente competente por tanto tempo.
Quando atingimos uma situação destas, podemos intuir uma situação que é lógica por um lado, mas que contraria o nosso senso comum: se ninguém fez até hoje, dificilmente alguém o fará com os recursos hoje disponíveis. Não é difícil fazer essa projeção quando se atinge esse ponto.

É possível voar de forma supersônica e econômica? É quase certo que sim, mas o mais provável seja que esse estágio seja alcançado com uma outra tecnologia que não com a do Concorde ou qualquer outro avião comercial em uso. Como não temos nada disso em vista, é bem possível que este seja um estado difícil de ser mudado e passageiros continuarão voando pelo mundo abaixo da velocidade do som. Tentativas até poderão ser feitas, mas falharão se não vencerem essa barreira.

Os mesmos passos trilhados pelo Concorde, em sua devida escala, foram dados pelo projeto do ônibus espacial. Mais de dez anos de projeto, mais de 20 anos em operação, e agora os americanos se voltam novamente para um projeto de cápsula descartável que é uma versão modernizada da antiga Apollo. O padrão de história é repetitivo.

 

A convergência tecnológica e as promessas da sociedade de consumo

As gerações que viveram no último século foram muito mal acostumadas. Elas vivenciaram uma fase sem igual de evolução tecnológica, que se reverteu em evolução mercadológica. A revolução tecnológica do último século criou a sociedade do consumo, e quando o consumo puro e simples não é mais suficiente, foram criadas a obsolescência programada e a obsolescência perceptiva. Todo produto tem vida útil limitada, e quanto termina sua vida útil é mais barato descartá-lo e comprar um novo, tecnologicamente mais avançado.

Um dos pontos da moderna sociedade de consumo é a promessa de melhoria contínua. As pessoas trocam porque elas acreditam que o produto novo é de alguma forma melhor que aquele que ele substitui, tornando a troca vantajosa.

Mas o que aconteceria se as pessoas soubessem que não haveria melhoria? Qual o estímulo de trocar um produto em uso por outro novo se o novo não oferece uma vantagem? As consequências seriam a interrupção do ciclo de substituição e de consumo.

As pessoas deixam de trocar seus produtos, a indústria para de vender e demite seus funcionários, esses funcionários deixam de consumir levando a nova onda de desemprego, desacelerando toda economia.

É aqui onde a sociedade de consumo bate de frente com duas grandes barreiras: a convergência tecnológica e o limite técnico dos próprios produtos.

Como já vimos, a convergência tecnológica impõe um limite ao desenvolvimento dos produtos, criando uma barreira à evolução contínua. Já o limite técnico é um novo tipo de barreira que a indústria tem se deparado nas últimas décadas. O problema não está no limite que a tecnologia possa atingir naquele produto, mas a evolução contínua dela se torna inútil.

A barreira pelo limite técnico é um processo recente porque está ligado à evolução da eletrônica e da informática aplicados a sistemas mecânicos ou naturais.

Um exemplo para esta segunda barreira está na tecnologia das telas dos televisores.
Ainda é recente o tempo que assistíamos televisores analógicos com telas de tubo de raios catódicos (CRT) em baixa resolução. Quando passamos para os televisores digitais de tela plana (com tecnologia plasma e LCD) e resolução HD, foi um salto enorme na qualidade de imagem. Saltar da resolução HD para a Super HD, embora numericamente seja superior ao salto da analógica para a HD, representou um salto bem menor em qualidade perceptiva.

Em tese estamos longe do limite tecnológico de ampliar a resolução das telas dos televisores, porém o olho humano tem um limite natural de resolução equivalente ao de células que captam luz no fundo do olho. Quanto maior a resolução, mais finos vão se tornando os menores pontos coloridos da tela, e se torna difícil discernir um ponto do outro pelo olho. Haverá um ponto onde aumentar a resolução não fará a menor diferença na percepção de imagem pelo espectador.

Essas duas barreiras são intransponíveis e fazem com que a evolução dos produtos pare e a percepção de evolução do consumidor seja anulada, quebrando o ciclo evolutivo do qual a sociedade de consumo necessita, e é natural que haja reações a elas, mesmo que nem sempre sejam as mais legítimas.

Esta questão costuma surgir de diferentes formas, mas seu padrão básico é o mesmo. Muito semelhante ao exemplo do aumento da resolução dos televisores, podemos apontar a questão das emissões dos motores. Podemos até dizer que os motores atuais geram 20% menos poluentes que a geração anterior, o que parece muito bom, mas quando pensamos que a redução em cascata das emissões – 20% de 20% de 20% de… – desde os tempos da substituição dos sistemas de carburação e ignição convencionais pela injeção de combustível, vemos que os ganhos atuais são ínfimos em termos absolutos. E enquanto os ganhos absolutos são mínimos, a complexidade técnica para alcançá-los se torna cada vez mais complexa e cara.

 

Truques e trapaças

O leitor já deve estar familiarizado com as técnicas de obsolescência programada e obsolescência percebida utilizadas pela indústria como forma de incentivar a troca prematura dos produtos. São técnicas tão comuns que, embora estejam no âmbito do presente assunto, nem merecem grande exploração neste texto. Basta lembrarmos que elas existem e que em princípio elas tropeçam no amadurecimento das tecnologias e nos limites técnicos dos produtos. Não adianta tornar um produto obsoleto se o produto substituto não tem nada a oferecer a mais.

Na mesma família de práticas técnico-comerciais a que pertencem essas obsolescências, existe uma outra, menos conhecida, chamada de “anti-feature”.
O anti-feature na sua concepção básica é uma técnica para segmentar as linhas do produto, oferecendo mais funcionalidades e funções melhores e mais poderosas nos modelos mais caros, enquanto produz o mesmo hardware ou plataforma para todas as versões, reduzindo custos pelo aumento do fator de escala de produção.
É interessante notar que em momento algum a indústria tem prejuízo fabricando um produto com todo um hardware e/ou recurso que passará a vida toda do equipamento sem funcionar, porque isso se paga pela maior escala de produção padronizada do produto ou de seus componentes, mas que ela lucra muito ativando apenas alguns bits de configuração do software do equipamento.

Há, no entanto, uma grande discussão sobre aspectos legais do anti-feature. O que ocorre quando o consumidor descobre que seu produto barato faz as mesmas coisas que o modelo mais caro, bastando ativar essas funções? Evidentemente a indústria irá reagir negativamente, porque afeta diretamente a lucratividade com o modelo mais caro (embora em momento algum ela esteja tendo prejuízo ao vender o mais barato no lugar). A indústria comumente alega violação de direitos autorais e pirataria sobre a divulgação pública de como ativar esses recursos. Por outro lado, o produto pertence ao consumidor, que pode usufruir dele como bem lhe aprouver.

Um exemplo notório de aplicação de anti-feature surgiu no lançamento do iPhone. Apenas as versões mais caras do aparelho contavam com o recurso de GPS. Porém logo surgiram informações sólidas que todos os iPhones eram construtivamente idênticos e que mesmo os modelos mais baratos possuíam um chip GPS instalado, porém propositalmente desativado de fábrica. Os clientes se sentiram traídos, tanto os que tinham aparelhos baratos como caros. Não demorou muito e logo surgiram técnicas de manipulação (hacking) que destravavam o GPS desses aparelhos baratos e os tonavam ativos como se fossem modelos mais caros.
Evidentemente isso impactou imediatamente na venda dos modelos mais caros, e a Apple passou a brigar contra a técnica. Entretanto esta era uma guerra perdida, e a Apple acelerou o lançamento do modelo seguinte já com o GPS funcional desde os modelos mais baratos.

O anti-feature, no entanto, tem se somado nos últimos anos às técnicas de obsolescências programada e percebida para criar uma demanda artificial de produtos.

Quando os televisores de LCD começaram a tomar definitivamente o mercado dos de tubo, estes últimos foram propositalmente piorados. Nos estandes dos supermercados era vergonhosa a diferença de qualidade de imagem entre um televisor de tubo novo e um bom de LCD.

Agora o processo começa a se repetir. A indústria está preparando a invasão dos televisores de padrão 4K de alta resolução, e a qualidade dos televisores LCD com resolução menor (Full HD) já não oferecem a mesma qualidade dos primeiros tempos. As telas foram trocadas por painéis de pior qualidade e os softwares de tratamento de imagem foram piorados. Lado a lado, o televisor de 4K mostra muito mais qualidade e o vendedor ainda empurra a ideia que a diferença de preço é o mesmo para o televisor LCD velhinho que temos em casa.

Se colocarmos lado a lado um LCD Full HD antigo, mas de boa linhagem, e um novo de tecnologia 4K e as olharmos da distância correta com que deveriam ser assistidas, a diferença entre eles é mínima e o consumidor não se sentiria motivado para comprar o novo aparelho. Temos então a trapaça de piorar o velho para o novo parecer melhor do que realmente é.

No final das contas, o anti-feature vem sendo usado como uma forma de aos poucos dar dois passos para trás para depois dar dois passos à frente e passar a impressão que o novo é realmente um avanço, quando na verdade estamos quase no mesmo lugar.
Este uso de anti-feature é uma técnica para criar uma obsolescência percebida artificial.

 

Truques e trapaças no automóvel

Não faz muito tempo, menos de um ano, e fomos surpreendidos com o escândalo que ficou conhecido como “Dieselgate”. Poucos meses depois a Mitsubishi fez um pedido público de desculpas por trapacear nos testes de consumo de alguns modelos que ela produzia no Japão, inflando excessivamente os pneus.

Nossa questão aqui não é julgar, defender ou acusar ninguém, mas entender o processo. Vamos nos colocar no lugar do engenheiro responsável pelos motores de um fabricante, e é incumbido de desenvolver uma versão para exportação para um grande mercado da marca. Ele sofre pressões para atender requisitos de todos os lados:
– O motor terá de atender as legislações de emissões de poluentes do país de destino, e em muitos deles a legislação é bastante restritiva, no limite da tecnologia tendendo a ir além dela;
– O setor de marketing pede um motor que seja muito potente porque nenhum consumidor gosta de carro “manco”, mas também quer um carro muito econômico, gostoso de dirigir e amigo da natureza, porque isso também vende carro;
– Já o setor financeiro exige que os custos sejam os menores possíveis e regula com mão de ferro as verbas para pesquisa, desenvolvimento e fabricação;
– Por fim, ele tem de oferecer um motor com um comportamento que dê prazer e conforto para o motorista. O motor tem de oferecer grande elasticidade e boa dirigibilidade.

Vejam que a indústria automobilística investe centenas de milhões de dólares todos os anos em pesquisa e desenvolvimento de novos motores. Todos os recursos possíveis são utilizados para produzir os melhores motores que a indústria pode fabricar. Usam-se desde supercomputadores para simulação de fluxos internos dos motores a novos materiais construção com elementos químicos exóticos. Há muito pouco que não tenha sido pesquisado e reavaliado inúmeras vezes, e nenhuma resposta é muito simples de ser respondida.

E se depois de milhões de dólares investidos, o motor não atende a legislação de emissões? E se o motor do concorrente é mais econômico e potente? E se o motor não fica barato de fabricar? E se o motor não agrada o motorista?

O pobre engenheiro está numa enrascada. Ele não tem margem de erro e também não pode jogar a toalha do desafio. Todos impõem especificações pesadas a ele, e ninguém aceita “não” como resposta. Ele está no limite do possível de uma tecnologia já bastante madura e não tem o mínimo espaço de manobra e a opção pela trapaça torna-se tentadora ou até a única saída. Se resolver esses problemas fosse fácil e viável, ninguém iria trapacear.

A discussão aqui não se trata de inocentar as trapaças, mas entender a perversidade do processo como um todo. De um lado temos um consumidor evangelizado desde criancinha a exigir mais, sempre mais, porque aquilo que ele tem nunca é o suficiente. Do outro, temos as autoridades com regulamentações cada vez mais restritivas. De mais  outro, a parte administrativa da empresa exigindo minimização de custos e maximização de lucros. E por fim existe a barreira da maturidade da tecnologia que impede ir além dela.

A trapaça é uma medida de desespero de quem não tem como atender todos os requisitos exigidos ao mesmo tempo. Em termos populares, é o mesmo que exigir que o pobre engenheiro assovie e chupe cana ao mesmo tempo. O engenheiro pode ter cometido a trapaça, e por ela leva toda recriminação da sociedade, mas há responsabilidade por ela em cada lado dessa questão.

Culpar o engenheiro ou o fabricante é a solução fácil para o caso, mas essa é a resposta menos eficiente. Sem reconhecermos a falha do sistema inteiro e o corrigirmos, outros casos semelhantes irão acontecer.

 

O motor de combustão e convergência tecnológica

O lado da trapaça do caso Dieselgate é apenas uma das facetas mais estranhas de um processo silencioso e importante: o da maturidade da tecnologia do motor de combustão interna.

Quando o motor de combustão interna nasceu, ele era bastante simples, próximo mesmo dos modelos didáticos que todos entusiastas aprendem quando se interessam pelo assunto.

Os anos foram passando e como a tecnologia de motores era vital para várias indústrias (aeronáutica, náutica, automobilística, de geração de energia etc.), projetos de pesquisa e desenvolvimento sempre receberam muito incentivo técnico e financeiro. Embora a tecnologia avançasse significativamente, os motores a combustão ainda eram máquinas relativamente simples, até que atingiram um limite de evolução.

Diz o renomado engenheiro de motores Dante Giacosa em seu livro “Motores Endotérmicos” (pág. 344), quando ele se refere ao avanço ideal de ignição nos motores de ciclo Otto:

“O valor ótimo do ângulo de avanço muda ao variar o regime do motor, sobretudo porque a duração da primeira parte da combustão (a de baixa velocidade) é independente do regime de rotação do motor. Por ela, ao aumentar o regime também tem de aumentar o ângulo de avanço.
É difícil realizar dispositivos que mudem automaticamente o avanço de ignição com uma lei de variação correspondente à que é requerida pelo motor para obter a máxima potência em todos os regimes. Na prática, a curva de avanço de ignição apenas se aproxima à necessária, porque se tolera uma ligeira perda de de potência em relação à máxima que pode ser obtida, o que é preferível a correr o risco de provocar detonação.”

As palavras de Giacosa, embora específicas às tecnologias de ignição da época, são claras ao mencionar alguns dos elementos de maturidade de tecnologia, principalmente na parte onde ele menciona a dificuldade em se fazer um dispositivo que ofereça o avanço ideal em todas as situações, e por isso se aceita uma margem de perda ao utilizar um mecanismo mais prático.

Na mesma época, as palavras de Giacosa poderiam ter ditas igualmente sobre o sistema de alimentação por carburador, e tanto o carburador como o sistema de ignição por platinado e avanço centrífugo e por vácuo eram tecnologias que já tinham atingido sua maturidade e estavam limitando a maturidade do motor a combustão.

Nos tempos em que Giacosa escreveu este texto, os melhores sistemas de controle de avanço de ignição eram mecânicos com precisão de relojoaria, e era algo fantasioso que algo como um computador pudesse ser colocado ao lado do motor para controlar tanto a alimentação como a ignição.

Veio então a revolução da eletrônica, coroada com o lançamento da injeção eletrônica digital Motronic pela Bosch. Esta injeção, pela primeira vez, ofereceu aos motores o que Giacosa via como barreira tecnológica: a capacidade de entregar mistura e centelha em medidas precisas sob qualquer regime. A diferença de tempo entre estes dois fatos foram de apenas alguns anos.

Os sistemas de injeção de combustível evoluíram junto com a revolução da informática, mas desta vez, ao invés dela se mostrar um limite para a evolução dos motores, foram estes que ofereceram um limite técnico aos sistemas de injeção.
Quando usamos o termo “combustão” a nos referirmos a estes motores, estamos usando um termo técnico muito mais profundo do que imaginamos.

Motores a combustão queimam combustível em suas câmaras assim como queimamos madeira em fogueiras de São João. E uma propriedade importante sobre as fogueiras de São João é que não existem duas fogueiras absolutamente iguais. A mesma coisa sobre as combustões dentro dos cilindros: nunca há duas queimas absolutamente iguais, e existe uma margem natural de variação no processo.

Quando os sistemas de injeção de combustível evoluíram, era possível ter uma precisão cada vez maior no ponto de ignição. Entretanto essa maior precisão não podia ser aproveitada. É necessário manter uma margem de segurança no avanço de ignição (normalmente da ordem de 3 graus a menos) sobre o ponto de ignição ideal, sob o risco de surgirem ignições com detonação.

Não adiantava o sistema de injeção ter precisão de 0,001 grau para o avanço de ignição. A variabilidade natural de queima do motor inviabilizava essa precisão e o motor não responde a essa precisão.

Um dos desafios técnicos dos últimos anos no projeto de motores é desenvolver o projeto de coletores e válvulas de admissão e escapamento, assim como de câmaras de combustão que diminuam essa oscilação dos processos de queima e ofereçam melhor precisão.

Tivemos muita sorte de o intervalo entre as palavras de Giacosa e a revolução da injeção eletrônica ter durado poucos anos. Mas o que teria acontecido se não houvesse a revolução da eletrônica? Certamente ainda estaríamos usando distribuidores mecânicos com platinado e carburadores, e mantendo o ar das cidades irrespirável.

Esta é só uma das inúmeras facetas tecnológicas ligadas aos motores.
Os motores que há apenas 30 anos eram mecanicamente simples, hoje possuem diversos subsistemas, são complexos, cheios de sensores e atuadores, um sinal que esta é uma tecnologia madura, onde cada ganho pífio representa um esforço de desenvolvimento enorme e caro.

E essa complexidade é, por si só, um sinal de convergência dessa tecnologia, rumo à maturidade e à estagnação.

A questão não é atender alguns requisitos, mas todos ao mesmo tempo. Por exemplo, fazer um motor mais econômico e que atenda com margem a novas legislações de emissões. É fácil fazer um motor mais econômico e menos poluente se abrirmos mão da potência. Porém o mercado irá entender que um motor que antes tinha 160 cv e agora passa a ter 120 cv é uma evolução no sentido da economia e de preservação do meio ambiente? Claro que não. Mas se dermos um jeitinho de contornar as emissões ao invés de abrirmos mão da potência, o motor chega lá.

Dentro da premissa que os motores de combustão terão de agradar a gregos, troianos, romanos, cartagineses, mesopotâmicos, cretenses e egípcios ao mesmo tempo, então chegamos no ponto onde evoluir se torna muito difícil.

É assim que podemos entender o fenômeno do downsizing, onde um motor grande aspirado é substituído por um motor menor com turbo, mantendo a potência.
Um motor menor com turbo fornece a mesma potência de um maior aspirado porém fazendo uso de maior pressão dentro da câmara de combustão, o que é bom para emissões e economia de combustível.

A solução é boa, mas merece duas observações importantes. A primeira é que ela evidencia que se atingiu o limite de redução de emissões feita apenas pela evolução pura dos motores e dos sistemas de injeção como se fez muitos anos, ou seja, é sinal da maturidade extrema da engenharia de motores, que não mais oferece espaço em atender requisitos apenas pela própria tecnologia de motores.

A segunda é observar que downsizing não é uma tecnologia, mas uma estratégia tecnológica. A questão dela ser uma estratégia e não uma tecnologia impõe um limite ao que a medida pode fazer. Não é possível fazer o downsizing do downsizing e portanto não é uma estratégia escalável.

Como estratégia vencedora, ela apenas ganhou uma batalha que deu tempo para os fabricantes respirarem em meio a uma guerra difícil de vencer.

A batalha seguinte foi a da injeção direta de combustível. Nos primórdios do uso da injeção indireta de combustível, lá nos primeiros anos da década de 1980, os fabricantes consideravam a injeção indireta apenas um sistema provisório, “tampão”, até que a tecnologia de injeção direta de combustível fosse desenvolvida, porque esta era realmente muito superior, porém muito mais cara e complexa.

Os anos passaram e muitos dos pensamentos iniciais sobre a relação direta x indireta se mostraram errados ou pelo menos imprecisos. Os engenheiros foram aprendendo a melhorar pouco a pouco a injeção indireta enquanto a injeção direta evoluiu proporcionalmente muito pouco e não resolveu completamente alguns dos seus problemas. O resultado é que a diferença entre os dois sistemas diminuiu drasticamente, e o menor custo do sistema indireto impediu a entrada no mercado do sistema direto em larga escala até bem pouco tempo, e esta só ocorreu por se atingir um limite de emissões proporcionado pela injeção indireta.

É importante notar que a introdução dos motores com injeção direta no mercado ocorreu depois da introdução dos motores de downsizing. Usar a injeção direta foi uma decisão estratégica para reduzir emissões tanto quanto implementar o downsizing. Porém, em tecnologia sempre se faz primeiro o que é mais fácil, simples e barato de fazer. Se usar a injeção direta fosse mais barato, simples e fácil de fazer, teria sido a primeira escolha, mas como não foi, o fato é uma mostra de quanto essa foi uma decisão difícil.

Novamente a injeção direta revela o mesmo problema do downsizing: por ser uma decisão estratégica e não técnica, não existe como fazer a injeção direta da injeção direta para reduzir emissões. É outra medida de tomada única, não escalável.

Depois dessas duas medidas, quais outras os fabricantes tem para tirar da cartola? O infográfico a seguir nos dá uma ideia.

Tecnologias inovadoras para motores

O infográfico passa uma ideia do processo evolutivo vindouro. Não só ela nos passa uma ideia de prazos de adoção, como da dificuldade de desenvolvimento. Popularização do downsizing, recuperação do calor, atuadores variáveis de válvulas e controle de combustão em loop fechado.  Nenhuma dessas tecnologias é simples e cada uma delas exigirá mais “escavação” em pesquisa e desenvolvimento, e novos subsistemas periféricos de alta tecnologia serão gerados, adicionando peso, volume, complexidade e custo ao motor a combustão.

Observem o vídeo de demonstração do sistema MultiAir da Fiat. O discurso é ufanista, mostrando apenas vantagens, mas é nítido o aumento da complexidade do sistema.

Marketing à parte, este é um sinal claro do esgotamento da tecnologia

Se a tecnologia de motores a combustão atingiu sua maturidade de desenvolvimento, para continuar esse desenvolvimento é necessário trocar o paradigma tecnológico, e sutilmente estamos sendo preparados para isso.

Caro leitor, tenha em mente uma verdade. Há pelo menos um século, gerações de engenheiros brilhantes consomem horas e recursos sem limites, avaliando e reavaliando cada mínimo detalhe dos motores de combustão. Não há detalhe que não tenha sido estudado e reavaliado diversas vezes. E dispomos hoje de sistemas de controle eletrônico que vão além dos limites físicos dos próprios motores.
Qualquer melhoria, se fosse fácil, simples e barata de ser tomada, já o teria sido.

 

A convergência no automóvel

Aquilo que foi dito sobre os motores pode ser aplicado sobre todo o resto do automóvel. Automóveis de mesma categoria de diferentes fabricantes estão mecanicamente cada vez mais idênticos, num processo já bem avançado de convergência.

Essa convergência tem ditado a escolha do consumidor cada vez mais pela preferência de marketing e design do que propriamente pelas características técnicas do veículo.

E não para aí. Há acelerado processo de convergência nos padrões de segurança. Há duas décadas a imprensa surpreendia a população com imagens espetaculares de colisões nos testes da NCAP. Hoje o padrão é outro. Boa parte dos novos modelos alcançam notas de 4 ou 5 estrelas pelos padrões NCAP, incluindo o pequeno Volkswagen up1, e os parâmetros de ensaio permanecem os mesmos.

A NCAP bem que tentou subir o grau de dificuldade, aumentando a velocidade de impacto frontal de 40 mph (64 km/h) para 50 mph (80 km/h). Mas os resultados mostraram que nesta velocidade nenhum veículo seria realmente seguro. A NCAP atingira o limite orgânico do corpo humano a impactos com a velocidade de 40 mph e ultrapassado esse limite no ensaio a 50 mph. Não havia por onde melhorar. Agora a NCAP vem trabalhando em especificações que cobrem situações estatisticamente insignificantes de acidentes para criar novos patamares de segurança, o que quer dizer que em termos reais pouca coisa deve evoluir daqui para frente.

Impactos: o limite não é mais a engenharia do automóvel, mas o organismo humano

O caso da NCAP apresenta outro aspecto a tirar o sono de administradores e marqueteiros. Vamos imaginar que o corpo humano não fosse o limite dos sistemas de segurança passiva do automóvel. Desde que a NCAP começou a fazer furor nos jornais, os fabricantes demoraram um tempo para aprender e 20 anos depois, fazer um carro médio ou grande com 5 estrelas em impacto frontal é quase trivial. Mas o que aconteceria se a NCAP aumentasse a velocidade do teste de 40 para 50 mph? Há tantas novas tecnologias de apoio ao projeto dos carros e tanto aprendizado acumulado ao longo dos anos que se esse padrão mudasse, os novos carros demorariam entre dois ou três anos para voltarem a atingir as 5 estrelas, e voltaríamos ao problema da estagnação atual.

Estas novas tecnologias de apoio também têm criado uma situação enganosa. Elas não eliminam o limite técnico da tecnologia, mas fazem com que se alcance o que falta para chegarmos nesse limite de forma mais rápida. Isso dá a falsa impressão de que agora a tecnologia irá deslanchar, quando na verdade é uma espécie de canto do cisne da tecnologia antes de atingir o auge da maturidade.

 

O futuro do automóvel

Há muitas e diferentes visões sobre o futuro do automóvel, e lemos a respeito quase todos os dias. Entretanto, não temos ideia das batalhas  travadas nos bastidores.

Se deixarmos como está, o automóvel irá convergir e tecnologicamente, vai estagnar em alguns anos. Isto já aconteceu com alguns entes que conhecemos muito bem.
Os televisores são um exemplo. O padrão Full HD foi estabelecido há mais de uma década, e muita gente tem sua TV da sala há seis ou oito anos e nem pensa em trocar. Trocar para quê? Vai melhorar a imagem do canal do plim-plim? Não. Então continua a velha no lugar.

Outro exemplo são o dos computadores pessoais (desktops e notebooks). Tem muita gente usando computadores com oito anos ou mais simplesmente porque os “velhinhos” já são bons o bastante. Trocar por trocar é jogar dinheiro fora. Qual o resultado disso? Os números de vendas desses computadores vem caindo assustadoramente desde 2012, e não há sinais de recuperação. E mesmo herdeiros mais novos, como tablets e smartphones estão seguindo o mesmo caminho, mas numa velocidade muito mais acelerada, para desespero da indústria eletroeletrônica.

A grande diferença entre um televisor e um PC com o automóvel é que este último é muito mais caro, e a troca pesa muito mais no bolso do consumidor. Se a indústria não se mexer, o que acontece hoje com televisores e PCs ocorrerá com os automóveis. Cada vez menos gente irá trocar de carro só porque mudou o design do farol.

Temos também desafios legais. As fábricas estão atingindo os limites de redução de emissões de motores, mas as legislações continuarão a ser mais exigentes a cada ano. Em um futuro não muito distante, os níveis exigidos de emissões estarão além do que se poderá fazer com um motor de combustão convencional.

Há também uma crise da forma de vender e usar o automóvel. As cidades estão cada vez mais saturadas de carros, gerando congestionamentos. Os congestionamentos anulam uma das vantagens do automóvel, que é a capacidade de se deslocar rapidamente e ainda estressa motoristas e passageiros. Hoje, pelos problemas e custos que causa ao ambiente urbano, o automóvel vem sendo perseguido de forma intolerante por prefeituras do mundo todo. Cidades coalhadas de radares, pedágio urbano, rodízio, redução do espaço de circulação pela instalação de corredores de ônibus e ciclofaixas, políticas para dificultar a instalação de mais vagas de estacionamento, além da promoção oficial de uma absurda guerra entre carros e bicicletas…

E pelo lado do consumidor, para que ele iria investir uma parte tão significativa de seu rendimento familiar por um bem tão caro e cada vez menos útil? O impacto de tudo isso vem sendo sentido por todos os fabricantes.

Sim, o automóvel vem passando por uma das fases mais conturbadas de sua história. Porém isto não é algo muito diferente daquilo que a indústria está acostumada. Nela há muitos cargos de gestão, porque gestores existem exatamente para administrar crises que ocorrem todos os dias. E estas podem ser grandes, mas não são diferentes.

A crise da convergência e da estagnação tecnológica dos motores era esperada pelos fabricantes.

A história do automóveis está cheia de testes de protótipos inovadores pelos fabricantes, como a Electrovan pela GM na década de 1960 e o protótipo NECAR pela Mercedes no começo da década de 1990. Mas estes testes são vistos mais como golpes publicitários e avaliações descompromissadas de tecnologia.


Porém, a partir da segunda metade da década de 1990 praticamente todos os fabricantes começaram a falar em carros híbridos, elétricos e célula a combustível hidrogênio. Na época, muitos acreditavam que aquilo não teria futuro, porém o fato de todos os fabricantes estarem falando das mesmas promessas ao mesmo tempo, promessas essas que quebram com o paradigma do automóvel tradicional, era uma indicação de que algo muito mais sério e real estava a caminho. E realmente veio.

Carros como Nissan Leaf, GM Volt e Toyota Prius estão em linha de produção e vendidos ao consumidor. Dois deles já foram inclusive testados aqui no AE. Apesar de venderem pouco ainda, não se vê desânimo por parte da indústria com estes carros híbridos e mesmo elétricos.

É evidente que os fabricantes sabem de algo e não querem ser alarmistas, e vem aos poucos evangelizando o público para as futuras tecnologias. E pelo menos os híbridos prometem tomar o lugar dos carros convencionais nos próximos anos.

No quesito segurança, a promessa real pode parecer estranha, mas ela se concretiza pelo desenvolvimento do carro autônomo. Em todas as áreas onde o computador tomou o trabalho dos humanos, a produtividade aumentou junto com a segurança. No automóvel as promessas são as mesmas. O carro mais seguro do mundo não é aquele que tem 5 estrelas NCAP, mas simplesmente é aquele que não bate, sendo que a causa primária dos acidentes é humana. Se a tecnologia de proteção dos automóveis caminha para o limite do organismo humano, a evolução da segurança segue tirando o ser humano do comando do veículo.

A direção autônoma não precisa ser perfeita. Basta que ela seja superior ao ser humano na condução segura do veículo para que a segurança aumente. E dali para frente há um longo caminho para ela ser melhorada.

O carro autônomo, quando integrado à internet móvel, promete outra grande revolução na questão do trânsito. Ele pode “conversar” com os demais carros ao seu lado e gerar fluxos de tráfego altamente colaborativos e com baixo atrito interno. Em sinais, por exemplo, toda fila de carros parados podem acelerar em sincronismo, ao invés de um após o outro como é hoje, com humanos na direção. Mesmo vias lotadas de veículos autônomos fluirão muito melhor que as mesmas vias com a mesma saturação de veículos convencionais.

Porém o grande problema dos congestionamentos nas cidades vem da utilização ineficiente do automóvel. Mais de 90% dos veículos particulares nas ruas trafegam apenas com o motorista, e boa parte deles são usados apenas para ir e voltar do trabalho e enquanto estão parados, ocupam inutilmente muito espaço, parados num estacionamento.
O carro autônomo permitirá que as pessoas não precisem mais de carros particulares no deslocamento diário. Elas podem chamar um carro autônomo de um serviço que elas assinam, o carro as apanha na porta de casa e as deixa na porta do trabalho, e a viagem pode ser compartilhada por outras pessoas que tenham trajeto semelhante. A viagem fica mais barata para o consumidor sem ele perder a capilaridade de mobilidade do antigo carro particular, mas sem gerar a preocupação com habilitação do motorista, seguro, abastecimento, manutenção, espaço em garagem e tantas outras preocupações e gastos do carro particular. Já é sabido que para trajetos de até 10 quilômetros é mais barato ir de táxi que ter um carro particular, mas com o carro autônomo de um serviço será ainda mais barato e cômodo de se deslocar pela cidade.

Se o carro autônomo oferece tantas vantagens ao consumidor urbano, ele também oferecerá muitas vantagens ao ambiente urbano. As viagens terão maior nível de ocupação dos veículos (3 ou 4 passageiros num autônomo contra 1 do carro particular), e por circularem o dia todo, não exigirão tantos espaços de estacionamento. Na média, um carro autônomo pode tirar até 10 veículos particulares das ruas por dia, o que seria um grande alívio para as cidades e toda população.

O UBER é outro exemplo de mudança de paradigma, vinda da união do automóvel com smartphones com conexão com a internet. Esta união entre comunicação e automóvel promoveu um tipo de mobilidade que, embora derivada da ideia dos táxis, os coloca na idade da pedra, pois conecta passageiros, motoristas e um sistema de gestão da mobilidade.

E assim como o UBER já percebeu, o modelo atual dele tende a convergir naturalmente para o uso intenso dos carros conectados.

Essa ideia de quebra de paradigma na forma de usar o automóvel é tão poderosa que fabricantes tradicionais como Mercedes e BMW já colocaram a questão pública se o real modelo de negócios deles é vender carros ou ofertar mobilidade. Eles já começam a contemplar uma época em que muito do seu faturamento não virá da venda de veículos, mas da oferta de serviços de mobilidade por veículos autônomos.

Muitas dessas transformações estão levando a outras, inesperadas e que não parecem se relacionar com o automóvel, mas realmente estão intimamente ligadas a ele. Uma das mais profundas transformações na forma de se trabalhar, vinda da evolução da internet é a da criação do Home Office. O Home Office se relaciona com o carro justamente por evitar que ele seja usado inutilmente. Se a pessoa não precisa se deslocar todos os dias para o escritório, ela trabalha na comodidade do próprio lar (pode fumar à vontade, como o Bob), evitando viagens desnecessárias e reduzindo a saturação das vias urbanas. Ao invés do estresse diário, o uso do carro se limita às viagens realmente necessárias, e com menos carros nas ruas, o deslocamento é mais prazeroso.

O automóvel ainda tem muito futuro pela frente, um futuro cheio de grandes inovações, mesmo que não seja exatamente o futuro entusiástico que gostaríamos.

Dirigiremos menos, mas dirigiremos com mais qualidade.

Concluindo

Não sejamos alarmistas com a convergência, a maturidade e até com a estagnação tecnológica. Elas são parte do processo histórico e parte do mecanismo que impulsiona a própria evolução tecnológica na busca de novas soluções.

Se o futuro do automóvel que se anuncia não é bem aquele que nós entusiastas apreciamos, pelo menos ele não é um beco sem saída. Há muito espaço para a evolução, mas em paradigmas diferentes daqueles que estamos acostumados.
É bom lembrarmos que há pouco mais de um século o automóvel foi a tecnologia que substituiu as carroças puxadas a cavalo, e que muitos não apreciaram a inovação na época, inovação esta que tanto apreciamos hoje.

Os entusiastas de cavalos e carroças odiaram a inovação, mas o tempo deles passou e hoje são apenas lembranças. Da mesma forma, a era do automóvel como o conhecemos parece estar passando e dando espaço a uma nova forma de encará-lo.

Talvez o leitor não perceba por viver durante o transcorrer dos fatos. Quando falamos de assuntos tão diversos como carros elétricos e híbridos, do carro autônomo, de UBER e de Home Office, parece que estamos falando de pontas soltas. Também parece que quando falamos de convergência tecnológica tendendo para a maturidade como um processo de decadência e estagnação, estou falando de um grande problema como se o mundo fosse acabar. Nada mais enganoso.

A realidade é muito maior e mais complexa do que imaginamos. E de outras formas ela ocorreu em outras eras da história humana. O que estamos observando é parte de um conjunto de transformações muito maior, não só tecnológicas, mas sociais, políticas e econômicas, amarradas todas juntas e que nos conduzirão a um novo paradigma histórico. Isso tem um nome. Chama-se “Processo Histórico”.

E, desta vez, as transformações são tão profundas, que muitos historiadores arriscam a dizer que estamos deixando para trás a Idade Contemporânea para entrarmos na Idade Tecnológica.

Isto significa, entre milhares de outras coisas, que o automóvel não deixará de existir, mas a nossa maneira de nos relacionarmos com ele será radicalmente diferente. E isso não é bom nem ruim. É apenas o desenrolar do processo natural da História Universal.

Adivinhar o futuro não é um ato de alta precisão, mas a própria História já provou muitas vezes que alguns processos são repetitivos em vários aspectos, e nada indica que desta vez seja diferente.

Não é uma simples questão de curiosidade. Precisamos dessas previsões para nos prepararmos para o futuro, e precisamos que elas sejam as mais precisas dentro do possível, e a ideia da convergência tecnológica é um caminho rumo às melhores previsões.

AAD

Fonte das imagens

  • http://boingboing.net/2007/01/14/iphone-the-roach-mot.html
  • http://www.motor1.com/news/10402/ten-years-of-the-fuel-cell-at-daimlerchrysler/
  • https://flipboard.com/@sir_swift/car-craze-15ls8fvhz
  • http://www.seatguru.com/airlines/Korean_Air/Korean_Air_Boeing_737-900.php
  • http://imgur.com/gallery/SedK5
  • http://www.wallpaperswidefree.com/Airplane/wallpaper/Airplane-beautiful-runway-lighting-hd-wallpapers
  • http://motherboard.vice.com/read/the-japanese-space-agency-just-tested-a-supersonic-plane-with-less-sonic-boom
  • http://saturdaybriefing.outrigger.com/featured-post/is-the-jumbo-jet-an-endangered-species/
  • http://www.bvmjets.com/pages/kits/Cougar.htm
  • http://peterccook.tumblr.com/post/122224437676/a-selection-of-works-by-mc-escher
  • http://thailand.fansshare.com/gallery/photos/10976491/boeing-ng-wallpaper/?displaying
  • http://blog.naver.com/PostView.nhn?blogId=aojun3728&logNo=220586386521&parentCategoryNo=&categoryNo=25&viewDate=&isShowPopularPosts=true&from=search
  • http://imgur.com/gallery/Qz3ra
  • http://www.couriermail.com.au/technology/news/shane-willis-re-working-of-classic-escher-image-is-a-sign-of-the-times/story-fn7cejkh-1226510621176?nk=aea91dcb2864bd66be2998101b35e52b-1468072033
  • http://www.areah.com.br/vip/concorde/materia/160858/1/pagina_1/primeiro-voo-comercial-do-concorde-completa-40-anos.aspx
  • http://www.oemoffhighway.com/article/12016068/mining-for-engine-technology
  • http://warwall.ru/photo/?page127
  • https://juliarae7.wordpress.com/category/uncategorized/page/2/
  • http://vieilles-soupapes.grafbb.com/t7856p50-electrique-nouvelle-mode


  • Rafael Sumiya Tavares

    André Dantas como sempre espetacular!

    • Luciano Ferreira Lima

      Ele me lembra o “Data” da série Star Trek.

    • Luciano Ferreira Lima

      Ele me lembra o Data da série “Star Trek”. Só faltou o pó de prata no rosto. Inteligentíssimo!

  • ochateador

    Na parte de obsolescência programada, temos um caso bem interessante para analisar.

    É o caso da Apple que percebeu que seus clientes não estão trocando de iPhone a cada 2 anos, mas sim em um tempo maior, mostrando que os consumidores estão adquirindo consciência e não estão mais aceitando qualquer coisinha nova só para pagar US$ 600,00 em um novo dispositivo que só mudou “o farol”.
    Qual a solução adotada ? Simples. Ao invés de lançar o iPhone este ano (ano 1) e no ano seguinte (ano 2) só corrigir os problemas e depois repetir o processo, a Apple irá lançar o iPhone e ficar 2 anos corrigindo problemas, totalizando assim um ciclo de 3 anos entre os lançamento (ano 1 lança o iPhone, ano 2 e 3 corrige os problemas, ano 4 lança outro iPhone, ano 5 e 6 corrige os problemas e assim vai).
    Mas se a gente parar para pensar daqui a pouco esse ciclo de 3 anos será aumentado para 4 anos ou mais, o foco mesmo será na melhoria da bateria e otimização do software. Porque? Oras… a maioria das pessoas só utiliza os celulares para redes sociais e jogos (sim elas podem usar para outras coisas, mas o grosso do uso é nesses 2 itens) e só reclamam de 2 pontos : “bateria acaba rápido” e “o aplicativo trava muito”, melhore esses 2 pontos e sobra o que para melhorar em um celular ?

  • Mr. Car

    Dantas, gostei especialmente das partes onde fala do “dieselgate” e dos testes de segurança. É isto mesmo: no caso dos índices de emissão, chega uma hora onde se cobra resultados além dos limites, e não se admite um “não” como resposta, e aí, só tem uma solução para se “conseguir” os resultados exigidos…trapaça. E no caso das notas de segurança, começam a atribuir pontos positivos nos índices por coisinhas que se enquadram naquilo que você disse: a possibilidade de evitar danos decorrentes de um evento que ocorreria na proporção desprezível de “um em um bilhão”. Ah, e aproveito a ocasião para lhe dizer: acho sensacional aquela sua matéria dividida em três capítulos, sob o título de “As falsas sensações de risco e segurança”. Uma das mais espetaculares e marcantes que li aqui no AE.
    Abraço.

  • Texto excelente!
    Por este motivo que penso — se tenho dinheiro, então compro o que há de melhor. Se não tenho, jamais me aperto para ter, ainda que seja meu desejo ou sonho de consumo. Um dia torna-se mais acessível. No mais, a indústria precisa vender e não é interessante que o consumidor fique feliz eternamente com o produto, mas fique satisfeito durante o tempo em que as inovações são elaboradas e o consumidor possa investir em um novo modelo da fabricante. Por outro lado é legal, pois os aprimoramentos tornam a vida do usuário melhor.

  • Nilson

    Li os dois textos e… Que exercício para a mente. Não um exercício pesado, penoso, mas que movimenta e alimenta o pensamento. Muito obrigado, André.

  • Antonio Pacheco

    Excelente o texto, muito interessante para a leitura do domingo. Ganhei o meu dia, parabéns!

  • Celso, nesse de hoje eu também.

  • F A

    André, agora que li que falou em pirações em discussões de som e também no limite do olho humano para se perceber resoluções em TVs, lembrei de discussões que tinha num site de áudio que eu participava ativamente uns 10 anos atrás.
    Eram pessoas dizendo que perceberam melhores cores em TVs trocando o cabo de energia, usando expressões como: cor mais profunda, nitidez mais não sei o que, etc. Mas sem ter como provar com algum aparelho eletrônico. Embora as vezes mesmo que fosse provado em laboratório com algum aparelho de medição, isso não prova que o ser humano iria ter a mesma percepção.
    Lembro também de pelo menos 2 sites estrangeiros que faziam testes cegos em som, trocando os equipamentos sem falar qual, e isso irritava os audiólifos, pois só percebiam a diferença quando trocavam a caixa de som, que na verdade é um equipamento eletromecânico, mas não percebiam quando trocavam cabos, leitores, DACs e outras partes. Eu conversava inclusive com um senhor chamado Carlos Dantas que era professor na USP e eng. elétrico e que me enviou pelo correio um projeto de pré-amplificador passivo.
    Na área de som também eram frequentes termos subjetivos como: graves profundos, viscerais, médios aveludados, consistentes, agudos cristalinos, transições límpidas, etc. Coisa que nenhum equipamento prova e que é muito difícil alguém perceber, mas que todo mundo diz que percebia para não se sentir excluído do grupo.
    Por que disse tudo isso?
    Pois com tudo isso sempre me lembro da fábula infantil a “Roupa Nova do Imperador”. Na verdade em muitos meios, seja hobby ou não, ninguém percebe avanço nenhum em alguma nova tecnologia, mas fala que percebe claramente para não ser visto como ignorante. Meu maior hobby é MTB e a cada dia lançam novos padrões. Está uma verdadeira terra de ninguém. Pior que computadores. E acho engraçado quando alguém vem e diz: Nossa, troquei o eixo de 135 mm por 142 mm e percebi a incrível maior rigidez, etc. E eu digo: Eu não tenho sensibilidade para tal. E pergunto: quanto diminuiu no cronômetro o novo eixo? Afinal o que manda é o tempo. E as fábricas sabem disso, tanto que agora lançam novos padrões de MTB e não justificam que serão mais rápidas, mas que serão mais divertidas, já que não tem como provar que serão mais rápidas. Aliás, li uma vez não lembro onde, que toda diferença precisa ser acima de 5% para o ser humano perceber. Engraçado também é quando dizem que com o novo guidão perceberam uma atenuação nas vibrações do piso. Como conseguem chegar a esse preciosismo de percepção se nessa cadeia entre o solo e as mãos, temos principalmente os pneus e a suspensão no meio. É mais um caso da roupa nova do imperador em ação.

  • Lucas, é muito interessante como tudo isso nos cerca e só vemos como pontas soltas, mas no fundo é um processo coerente.

    A reação à entrada da inovação é um fenômeno interessante. Você deve ter visto que eu escrevo muito sobre trânsito, certo? Só que eu não sou um especialista em trânsito. Na verdade eu sou um especialista em sistemas dinâmicos. Aí pode não parecer, mas o trânsito tem características dinâmicas muito similares com a suspensão de um carro, incluindo fenômenos como inércia, elasticidade, amortecimento, atrito… A partir disso é possível criar modelos matemáticos que aproximam as duas coisas. E se o modelo matemático é coincidente, o que vale para um, vale para outro.

    A sociedade humana também é um sistema dinâmico que também pode receber um modelo matemático do mesmo tipo.
    Quando falamos em termos de mudanças radicais de paradigma, como a substituição brusca das carroças e carruagens por automóveis, surgem movimentos de resistência que funcionam dinamicamente como o amortecedor da suspensão. O que ocorre num veículo onde os amortecedores estão ineficientes? O sistema social resiste para evitar o mesmo tipo de desestabilização, o que é bom.

    Hoje nós estamos tão acostumados com o processo de inovação que o amortecimento é quase nulo, e isso pode causar problemas. Olha a questão da inteligência artificial. Hoje uma das tecnologias de ponta na área é a chamada Deep Learning. A Deep Learning é diferente das tecnologias antigas porque ela aprende observando por conta própria e ela é capaz de dicernir questões semânticas que antes só se imaginava ser uma capacidade humana.
    Diferente das outras automações que substituíam mão de obra braçal, a Deep Learning pode substituir mão de obra a nível gerencial e decisório. Um banco de investimentos por exemplo pode ter mais de 90% do seu staff substuído por softwares de Deep Learning rodando em PC’s baratos.
    É claro que a adoção é interessante para o banco em termos de custos. Mas o que acontece se boa parte da sociedade passa a adotar essa tecnologia sem amortecimento? As pessoas perdem seus empregos e param de consumir. Sem consumo, as fábricas fecham e jogam mais gente no desemprego. A riqueza se concentra na mão de pouquíssimos e o resto vive na miséria.

    Esse é um quadro bem previsível. Se houvesse mais amortecimento na adoção de tecnologias, o sistema socio-econômico teria condições de se adaptar melhor e evitar picos e vales do processo que levam às crises.

    Agora vou dar um exercício para você. Leia o interessantíssimo artigo do companheiro Alexander Gromow falando de TL’s e Variantes de 1973, e se coloque naquela época. Aí pense que apareceu uma Honda e lançou o Civic 2016. A pergunta que deixo para você responder é:
    – Será que o pessoal entenderia o que é a “nave espacial” que é o Civic perto dos TL’s e Variant’s e comprariam o carro? Ou eles interpretariam aquilo como um ente estranho e manteriam distância?

    É uma questão interessante de se pensar.

    • Marcos Henz

      Uma observação para quem se interessa pelo assunto é que os livros de Isaac Asimov (ficção científica), escritos na década de 50 (!) já previam com precisão assustadora toda essa automação baseada na matemática, big data, inteligência artificial etc.

    • Fernando

      André, poderia em outro momento fazer um texto, com a sua didática, sobre o Deep Learning? Obrigado!

    • O artigo é excelente, mas os comentários são um show à parte!

      Este seu comentário me fez lembrar da Psico-história, conhece?

  • joao vicente da costa

    Um dos melhores artigos que li nos últimos anos em toda a internet. Sintético, objetivo, direto ao ponto! Muito obrigado ao autor e ao AE.

  • ochateador

    Uma GTX 750ti já roda muitos jogos atuais em fullHD na boa. Fica a dica para a compra.
    Ou… espere uma possível GTX 1050 e só troque de VGA daqui 6 anos (ou mais).

  • André, parabéns pelos dois textos, simplesmente fantásticos. Alguns conceitos subjetiva e subliminarmente eu pensava da mesma forma, claro, sem todos os conceitos e didática. Outros assuntos e conceitos, me vi nas “trevas”, como já foi relatado aqui. A questão de como será o nosso relacionamento com o automóvel no futuro, certamente, é algo que está na pauta de TODOS os envolvidos no processo, profissionais ou não. E, apenas para terminar, e “puxando a sardinha” para o “meu” lado, ainda bem que não vejo qualquer chance de veículo autônomo para uso em Off-Road. rsrs., mas, não duvido de nada, até acho que a tecnologia poderia fazer leituras do terreno, enxergar erosões, inclinações e tomar a melhor decisão de como passar um carro por um obstáculo ou terreno difícil, mas acho bem pouco provável os fabricantes gastarem tantas horas para esse fim. Afora que, um veículo Off-Road em grande parte de sua utilização é recreacional (claro, há que se pensar no uso profissional, onde empresas de energia, prospecção, etc. precisa enviar profissionais para lugares inóspitos e de difícil acesso). Enfim, quem viver verá. Mais uma vez, parabéns pelo excelente texto.

    • ochateador

      Veículo autônomo em uso off-road ?
      Pesquisar por mineradora rio tinto sua automatização na Austrália. Vai se surpreender bastante.

  • “A NCAP bem que tentou subir o grau de dificuldade, aumentando a velocidade de impacto frontal de 40 mph (64 km/h) para 50 mph (80 km/h). Mas os resultados mostraram que nesta velocidade nenhum veículo seria realmente seguro.” Rapaz! mas que coisa a se pensar! Nenhum veículo seria realmente seguro a 80 km/h! 80! Citação gravada para ser usada em caso de fricotes sobre notas de carros em teste de impacto.

    “Cada vez menos gente irá trocar de carro só porque mudou o design do farol.” A questão de troca de aparelhos eletrônicos x troca de carro tem uma grande diferença: os carros sofrem degradação pelo uso, buchas ressecam, juntas permitem vazamento, lataria é amassada, e o processo de reparo é desanimador, pela falta de qualificação, desonestidade e custos. Tudo concorre para a troca por um carro novo ou mais novo, para fugir das mazelas da manutenção.

    Sobre o carro autônomo compartilhado com várias pessoas ao mesmo tempo fazendo o mesmo trajeto, não acho que vá funcionar andar com estranhos no mesmo veículo, a não ser que o carro tiver compartimentos isolados.

  • Mibson Fuly

    Ainda vejo dias de éx-driver chegando.

  • Carlos Eduardo

    O caso da convergência dos motores é interessante.
    Como exemplo fui numa concessionária Peugeot e numa Volkswagen, reparei os motores 3 cilindros do 208 e do up!, são muito similares, por exemplo ambos já têm o coletor de escapamento integrado no cabeçote, entre várias outras semelhanças.

  • Caio Azevedo

    É muito acalentador saber que o computador do tipo desktop ainda vai existir por muito tempo. Notebooks, netbooks, all-in-one, tablets e smartphones são todos equipamentos que amarram o usuário no sentido de não oferecerem 10% da capacidade de customização/manutenção de um desktop. E o desempenho normalmente também fica bem atrás.

  • Fernando

    Que texto brilhante!
    Sempre leio até os comentários.
    Obrigado por expor estes conceitos de uma forma que eu — um leigo — possa entender.
    Já estou aguardando o próximo.

  • ochateador

    AMD Zen pode ser algo bom se ela não fizer a besteira que fez com as placas de vídeo RX 480.
    Melhor coisa que a AMD pode fazer é ir com calma e lançar o produto aos poucos e ir melhorando. Porque lançar de forma destrambelhada não dá (e ela nem tem caixa para isso). Mas… se ela fizer um lançamento bem feito (começando no mercado de baixo custo primeiro), souber integrar o CPU e a VGA com as tecnologia DirectX12/Vulkan…. meu bom pai, é um adeus para a dupla Intel/Nvidia.

  • Lucas Vieira

    Na verdade o Tupolev era uma cópia aperfeiçoada do Concorde, alvo de espionagem industrial. Mas era bem superior ao Concorde. Esses ganhos econômicos do Concorde eram relativos, pois era um avião menor e mais leve, e também com carga paga e de passageiros menor. O custo do Tupolev era menor também, ao passo que utilizava motores do Bombardeiro Tu-160, e o Concorde teve que desenvolver motores exclusivos para seu projeto.

    A espionagem soviética não só roubou o Concorde como melhoraram muitas de suas deficiências. Só que como toda aeronave comercial soviética, economia operacional nunca foi seu ponte forte.

  • Carlos Alberto Torres

    Excelente artigo André, assim como todos os outros.
    Estava exercitando o cérebro e lembrei-me daquele conceito de motor com válvulas rotativas que nunca foi utilizado comercialmente. Seria uma boa quebra de paradigma para gerar mais potência e, talvez, menos poluição.

    Outra questão que levantei, é sobre a forma de gerar energia em veículos híbridos. Hoje, em geral, se utiliza motores a pistão convencionais com ajustes para maior economia como o ciclo Atkinson virtual. Neste caso, imagino que pudesse ser mais produtivo o uso de outros tipos de motores como turbinas, já que trabalhariam em rotação constante, que é o grande problema do uso de turbinas em carros. Não sei como ficaria a questão de poluentes.

    Abraços.

    Carlos Torres

  • Bruno Passos

    Brilhante! Simplesmente brilhante! Obrigado por compartilhar tanto conhecimento!
    Abraços,
    Bruno Passos

  • Joey, tal raciocínio vale para qualquer atividade, como se ninguém mais ficar doente e se acidentar, pulverizar o sistema de saúde.