Monthly Archives: abril 2026

O CEO da Adobe, Shantanu Narayen (esquerda), conversa com Jensen Huang, CEO da Nvidia, no Adobe Summit 2026 – Foto: Paulo Silvestre

Inteligência artificial muda a forma como empresas se relacionam com seus clientes

By | Tecnologia | No Comments

Estamos diante de uma mudança de paradigma no marketing graças à evolução da inteligência artificial. Se as redes sociais consolidaram a entrega de anúncios específicos para as pessoas que têm grande chance de se interessar por eles, a IA começa a colocar em xeque o próprio conceito de campanha e até de funil de vendas.

Com os consumidores usando essas plataformas para atividades cada vez mais diversas, mais cedo ou mais tarde, eles as usariam para pesquisar produtos e serviços que quisessem adquirir. Esse momento chegou: segundo estudo da consultoria Bain & Company, publicado em outubro, 58% dos brasileiros já usam a IA para comparar preços, produtos, vendedores e sites, antes de concluir uma compra.

Isso muda o marketing profundamente. Cada vez menos adianta construir “uma mensagem incrível” e empurrá-la para “o cliente certo”, se agora ele conversa com uma plataforma que decide, segundo critérios nada transparentes, o que lhe indicará.

O desafio de todas as marcas passa a ser, portanto, como se tornar relevantes não apenas para seus clientes, mas também para algoritmos que passam a intermediar o contato entre empresas e pessoas. E isso não é trivial.

Esse assunto foi a espinha dorsal do Adobe Summit, um dos maiores eventos globais de tecnologia, criatividade e experiência do cliente, que aconteceu em Las Vegas (EUA) entre os dias 20 e 22 de abril. Conhecida pelos seus programas gráficos, como Photoshop e Illustrator, a Adobe se posiciona agora com soluções para melhorar o desempenho das empresas nesse “novo marketing”.

Não é exagero dizer que parte do orçamento de marketing das companhias está sendo gasta para convencer pessoas que cada vez menos tomam as decisões de compra sozinhas. Pouco vale investir milhões se a IA priorizará concorrentes baseada em critérios que suas diretorias sequer compreendem.


Veja esse artigo em vídeo:


O evento também destacou como a IA está mudando a lógica criativa, com o trabalho começando de versões geradas e otimizadas pela tecnologia, e não de uma “página em branco”. Os modelos deixam de ser apenas geradores de textos e imagens para atuar como parceiros que entendem contexto, objetivos de negócio e regras de marca.

Apesar disso, o papel das pessoas não desaparece. A IA não vem para substituir, mas para melhorar o trabalho humano, com criativos, publicitários e estrategistas passando a escolher e dirigir agentes de IA, em vez de executar cada microtarefa.

“Nós acreditamos que a criatividade é a nova produtividade, à medida que as comunicações se tornam cada vez mais expressivas e visuais”, declarou Shantanu Narayen, CEO da Adobe, durante a principal palestra do primeiro dia do evento. “Essa abordagem diferenciada em relação à IA reflete nossa crença de que a criatividade é uma característica exclusivamente humana, e acreditamos que a IA tem o poder de tanto auxiliar quanto ampliar a engenhosidade humana, além da produtividade.”

Na mesma apresentação, ele conversou com Jensen Huang, CEO da Nvidia. O líder da empresa que se tornou a mais valiosa do mundo por fabricar os principais processadores dos datacenters da IA destacou que essa tecnologia está deixando de ser apenas um sistema que responde perguntas ou organiza informação e passando a executar tarefas concretas. “Agora temos a capacidade de ir diretamente de uma entrada sensorial para a execução direta em um sistema computacional ou em um sistema físico”, afirmou Huang. “As pessoas adoram IAs que sabem tudo, mas, no fim das contas, o que você paga é pelo trabalho realizado.”

Há um risco significativo nisso. Hoje, grande parte do conteúdo que trafega pela Internet já é produzido por IA, e sua qualidade costuma ser tão ruim, que ganhou o apelido pejorativo de “AI slop” (“slop” se refere à lavagem que os porcos comem). As marcas precisam cuidar que seu novo conteúdo não engrosse esse caldo.

 

Preservando a marca

Por isso, David Wadhwani, presidente da unidade de Criatividade e Produtividade da Adobe, explicou que bons conteúdos precisam se destacar, fugindo do que chamou de “mar de mesmice”. Além disso, eles devem se manter frescos e garantir a personalização com “criatividade em escala”.

O dilema vem de que a personalização gera volume, mas volume costuma destruir consistência. E consistência é o que sustenta uma marca. “Você precisa manter a identidade da sua marca à medida que escala a produção de conteúdo”, acrescentou.

A ideia é, portanto, transformar criatividade em processo industrial, sem perder identidade. Porém, isso ainda é uma promessa sofisticada que precisa ser comprovada medindo o retorno em canais fragmentados e orquestrando jornadas de incontáveis clientes ao mesmo tempo.

“O maior gargalo da IA não é a tecnologia, e sim processos e cultura”, provoca Fernando Teixeira, diretor de produtos e de estratégia de IA da Adobe na América Latina. Ele explica que o principal motivo do baixo retorno que as empresas ainda têm com essa tecnologia se deve ao fato de ela ser usada de maneira desagregada pelos profissionais, enquanto os processos da empresa não mudam. “Não dá mais para entender a IA como um uso individual nos processos de departamentos antigos.”

Esse descompasso se torna ainda mais evidente quando se observa o contexto brasileiro de avanços e contradições. “O Brasil é um país muito conectado e isso nos coloca em vantagem nessa adoção”, afirma Mari Pinudo, country manager da Adobe Brasil. Mas isso convive com o desafio de também sermos “uma população muito diversificada e diferente.” A promessa de personalização em escala esbarra, então, na complexidade de entender pessoas inseridas em realidades tão distintas.

Se já é difícil compreender indivíduos em um país diverso, esse desafio se amplia quando a interação deixa de ser direta. “Os consumidores mudaram o comportamento e estão indo nessas plataformas para ter conversas sobre os produtos das marcas”, afirma Douglas Montalvão, general manager da Adobe na América Latina. A questão deixa de ser apenas entender clientes e passa a incluir a necessidade de influenciar os ambientes digitais que filtram o que ele vê a partir de sua individualidade.

Esse é um deslocamento sutil, mas profundo, de poder na relação entre empresas e consumidores. Por tudo isso, o Adobe Summit tratou muito além de tecnologia. Em mais essa disrupção provocada pela inteligência artificial, essa é uma conversa sobre poder, sobre quem controla a experiência, a decisão de consumidores e, no limite, como se construirá, de agora em diante, a narrativa e o funcionamento do marketing.

 

Dario Amodei, CEO da Anthropic, criou a empresa depois de sair da OpenAI por preocupações com a segurança do GPT-2 - Foto: reprodução

Medo pode funcionar como marketing para a inteligência artificial

By | Tecnologia | No Comments

No dia 7 de abril, a Anthropic, criadora da plataforma de inteligência artificial Claude, anunciou que não liberará a nova versão do seu produto para o público, por considerá‑la “poderosa demais” e que “o mundo não estaria preparado para ela”. Mas apesar dessa negativa, isso pode ser ótimo para seus negócios.

Batizada de Claude Mythos Preview, a empresa acredita que ela poderia ser usada para explorar vulnerabilidades de sistemas de computador, o que tem feito melhor do que as IAs já lançadas. Por isso, a Anthropic oferecerá o modelo apenas a um consórcio de cerca de 40 empresas de tecnologia, incluindo Google, Microsoft, Apple e Amazon, algumas delas suas concorrentes. A expectativa é que elas o usem para encontrar e corrigir vulnerabilidades de segurança em seus próprios softwares estratégicos.

A decisão foi suficiente para causar alvoroço no mercado e reacender medos em torno das possibilidades da IA. De fato, o lançamento do ChatGPT, em novembro de 2022, disparou temores nas pessoas que iam desde a substituição em massa de empregos –o que já começa a acontecer– até visões apocalípticas, como indícios de uma possível revolta das máquinas, que levaria ao extermínio da humanidade.

Pelo menos nesse último caso, nada aponta que acontecerá, não em um horizonte visível. Mas isso não é trivial e envolve capacidades cognitivas artificiais surpreendentes e um poder computacional assustador, que não param de crescer.

Chega a ser contraintuitivo uma empresa anunciar que desenvolveu um produto que, de tão poderoso, representaria um risco à humanidade. Sendo assim, o mais razoável seria simplesmente destruí-lo, o que obviamente não acontecerá. E isso se deve ao fato de que essa ansiedade fabricada é um excelente marketing para algo que acabará chegando ao mercado, depois de legitimado com alguma narrativa redentora.

É assim que esse mercado cresce captando bilhões de dólares de investidores.


Veja esse artigo em vídeo:


A Anthropic disse que seu novo modelo já teria encontrado milhares de bugs e brechas de segurança em diversos programas populares, incluindo os principais sistemas operacionais e navegadores. Uma delas foi uma falha no OpenBSD, sistema operacional de código aberto projetado justamente para ser difícil de hackear. O bug existiu sem ser notado por ninguém por 27 anos.

O novo modelo tem capacidades avançadas de ataque em cibersegurança, com alto grau de autonomia, e pode ser usado para derrubar empresas e comprometer infraestruturas essenciais. Isso poderia ameaçar partes críticas da internet, derrubar empresas gigantes e até penetrar em sistemas de defesa nacional dos EUA.

A Anthropic havia ganhado holofotes em fevereiro ao desafiar o Pentágono, sede militar dos EUA. A empresa, então a única IA credenciada para suas aplicações, se recusou a aceitar as exigências para que sua tecnologia pudesse ser usada em armas de destruição em massa e na vigilância de cidadãos. Isso fez com que Pete Hegseth, secretário de Defesa dos EUA, classificasse a empresa como um “risco à cadeia de abastecimento dos EUA”, decisão depois bloqueada pela Justiça.

Esses motivos éticos são legítimos e a coragem de peitar os militares americanos rendeu muitos louros justos à Anthropic. Além disso, em termos de imagem pública, posicionar‑se como quem vê o perigo e sacrifica o lucro pela segurança global cria uma aura de “guardião”, mesmo quando esses investimentos também consolidam infraestruturas proprietárias e mercados cativos.

É verdade que a IA já está aumentando a sofisticação e a escala de ataques cibernéticos, incluindo engenharia social e automação de golpes. Mas a forma maximalista e até apocalíptica como esse risco costuma ser apresentado favorece gastos gigantescos, aquisições e regimes regulatórios favoráveis às big techs.

 

“O caminho para o lado sombrio”

Mais do que simples marketing, o medo vem sendo claramente instrumentalizado para reforçar a posição de poder, vender produtos e moldar o debate regulatório em termos que beneficiam essas empresas. Ao enfatizar riscos catastróficos de IA, reforçam a ideia de que apenas elas teriam responsabilidade e capacidade técnica e financeira para manter a tecnologia sob controle, o que favorece a concentração de poder.

Esse sentimento também alimenta uma demanda política por regras que acabariam criando barreiras de entrada para concorrentes menores, por requisitos caros e complexos. No nível de produto, ele serve para vender soluções de “IAs seguras”, capazes de proteger as operações contra os próprios riscos da IA.

É curioso que a Anthropic “nasceu de uma costela” da OpenAI, criadora do ChatGPT, justamente por temores em segurança. Em 2019, essa última havia terminado de treinar GPT-2. Dario Amodei, então diretor de pesquisa da OpenAI e hoje CEO da Anthropic, insistiu que ele era perigoso demais para ser lançado. Para ele, o mundo precisava de tempo para se preparar, pois a IA poderia ser usada para a produção em massa de desinformação.

O modelo acabou indo para o mercado. Amodei e outros líderes do projeto decidiram deixar a OpenAI para fundar a Anthropic. Hoje vemos que aqueles temores eram legítimos, pois a IA se transformou em uma grande ferramenta para criar mentiras.

Logan Graham, chefe de uma equipe que testa modelos em busca de ameaças na Anthropic, declarou que o Mythos Preview seria “o ponto de partida para o que acreditamos ser uma virada na indústria, ou acerto de contas com o que precisa acontecer agora”. Segundo ele, uma das questões não respondidas é se, com esse modelo e outros no futuro, que serão capazes de fazer coisas semelhantes, será necessário reescrever a maior parte ou todo o software crítico do mundo. Afinal, se até então eles pareciam seguros porque se exigia muito esforço humano para atacá-los, com a IA essa garantia desceu pelo ralo.

Por isso, precisamos avaliar declarações como essa, da Anthropic, com cautela. Sim, a IA traz riscos reais e grandes, que precisam ser contidos. Mas não se pode ignorar que essa empresa, que insiste em alertar o mundo sobre eles, continua faturando bilhões de dólares com esses mesmos produtos.

 

Graças à tecnologia, hoje um único profissional pode fazer o que antes exigia equipes inteiras – Foto: Freepik/Creative Commons

IA favorece a criatividade, mas piora a vida dos criadores de conteúdo

By | Tecnologia | No Comments

A economia criativa global segue crescendo, mas os criadores estão ficando para trás. Essa é a tensão central do relatório “Re|Shaping Policies for Creativity”, publicado recentemente pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco). Com dados de 133 países, ele alerta sobre uma transformação estrutural acelerada pela digitalização e pela inteligência artificial, que está redesenhando quem ganha, quem perde e quem controla a produção cultural no mundo.

Nunca foi tão fácil criar, distribuir e acessar conteúdo. O mercado global de bens culturais atingiu US$ 254 bilhões em 2023. Mas isso vem junto com o aumento da precarização do trabalho criativo. O documento destaca que há pouco emprego estável para criadores, os modelos de remuneração são frágeis e as plataformas digitais concentram valor. Com isso, o órgão projeta uma queda de até 24% na receita dos criadores até 2028, impulsionada pela IA e pelo uso não autorizado de conteúdos.

O estudo indica que as redes sociais deixaram de ser espaços de interação para impactar a democracia, o bem-estar e a regulação global. Há uma preocupação crescente com saúde mental, governança das plataformas e desinformação.

Nesse sentido, é inevitável pensar em como essas mudanças atingem o coração do jornalismo contemporâneo. Quando se fala em perda de receita, desintermediação e captura de valor pelas plataformas, estamos falando exatamente da crise que o setor vive há pelo menos duas décadas. Isso se agrava com a IA generativa, pois não só as redações perdem o controle de seu produto, como ele ainda passa a ser reprocessado e reapresentado, sem tráfego para a fonte. Isso se enquadra no que o relatório chama de desvalorização da criatividade humana.

A cultura é um ativo econômico relevante como vetor de inovação e como ferramenta de desenvolvimento. Mas o sistema que a sustenta está deslocando valor dos criadores para intermediários tecnológicos. Temos mais produção e circulação, porém menos remuneração. E esse desequilíbrio corrói um pilar de qualquer sociedade.


Veja esse artigo em vídeo:


Há um lado inegavelmente positivo da IA, que acelera processos e permite que mais pessoas produzam conteúdo em escala e com qualidade. Hoje, um único profissional pode fazer o que antes exigia equipes inteiras. O próprio relatório reconhece esse potencial ao apontar que tecnologias digitais podem democratizar o acesso à cultura e estimular novas formas de expressão, como uma infraestrutura criativa.

Por outro lado, quando a produção explode, o valor individual tende a cair, e a tecnologia acelera esse processo. Por isso, o estudo destaca que 79% dos profissionais culturais veem a IA como ameaça à sua subsistência. E não se trata de resistência à tecnologia e sim de uma percepção de perda de controle econômico.

A questão central não é, portanto, a capacidade de criar, e sim a de capturar valor. A IA se alimenta de conteúdos existentes, muitas vezes sem remuneração proporcional (ou qualquer remuneração), e depois entrega produtos derivados que competem com os próprios criadores. É uma cadeia na qual quem produz é o elo mais frágil.

Não se trata de “usar bem ou mal a IA”. O relatório aponta um vazio regulatório relevante, indicando que há 148 leis relacionadas à inteligência artificial em 128 países, mas apenas uma trata especificamente de cultura. Como de costume, a tecnologia avança mais rápido do que as regras que deveriam equilibrar seus efeitos, mas sem regulação, o mercado tende a favorecer quem escala e não quem cria.

A Unesco aponta ainda para uma séria ameaça à diversidade cultural. A IA passou a influenciar diretamente como conteúdos culturais são produzidos e acessados, mas ela opera com critérios de engajamento. Além disso, os modelos são treinados com grandes volumes de dados do hemisfério norte ocidental. Isso cria um risco estrutural de repetição de estilos, de redução de diversidade estética e de concentração de narrativas.

 

Uma tecnologia contraditória

A IA não é neutra nem inevitavelmente boa ou ruim. Esses resultados escancaram a necessidade de regras claras de remuneração, transparência no uso de dados e mecanismos de proteção aos criadores. Sem isso, a Unesco aponta que teremos cada vez mais gente criando, mais conteúdo circulando e menos pessoas vivendo disso.

O caso do jornalismo é emblemático. A pressão por produtividade em tempo real agora se combina à dependência de ferramentas automatizadas pela redução das equipes. A IA chega como uma ferramenta ambígua, que amplia a capacidade, mas também incentiva atalhos perigosos, especialmente em ambientes de alta pressão. Se o seu modelo econômico enfraquece, o impacto vai além dos profissionais, afetando a própria democracia. Menos receita significa menos investigação, menos diversidade e mais dependência de automação, o que pode aumentar a desinformação.

Um caminho para toda a economia criativa é a criação de remunerações obrigatórias pelo uso de conteúdo em sistemas de IA. O próprio relatório aponta a fragilidade dos atuais sistemas de propriedade intelectual. Sem isso, qualquer medida será paliativa.

A regulação parece inevitável, mas exige cuidado. Regular demais pode inibir inovação, mas regular de menos consolida abusos. O desafio é definir regras claras no uso de dados para treinamento de IA, na transparência sobre como conteúdos são usados no seu treinamento e na responsabilidade sobre o que ela gera.

Obviamente não se trata de rejeitar a IA, mas sim de aprendermos a usá-la de forma estratégica. Precisamos desenvolver habilidades técnicas e pensamento crítico sobre seus benefícios, seus riscos e as implicações éticas de seu uso.

Talvez a mudança mais difícil seja repensar a própria lógica de distribuição. As plataformas se tornaram intermediários dominantes e é preciso equilibrar essa intermediação. Mas isso só acontecerá com vontade política. A IA não respeita jurisdições nacionais, mas os direitos dos criadores ainda dependem delas.

Isso não é uma crise passageira. O que está em jogo vai além da renda de criadores, definindo o tipo de ecossistema cultural que queremos sustentar. Se houver intervenção coordenada, a inteligência artificial pode, de fato, ampliar a criatividade humana em vez de substituí-la economicamente. A diferença entre esses dois futuros possíveis não é tecnológica, e sim política, econômica e, no limite, cultural.

 

Robô Atlas, da Boston Dynamics, movimenta peças entre armários - Foto: reprodução

Inteligência dos robôs humanoides avança rápido, mas seus corpos ainda são rudimentares

By | Tecnologia | No Comments

Há alguns dias, vi um robô humanoide funcionando em um hospital. Ele cambaleava pelos ambientes, pegava objetos em gavetas e fazia lentamente ações simples, que renderam muitas visualizações. Mas diante desses vídeos, às vezes vendidos como produtos prontos em uso, sempre penso que jamais aceitaria ser atendido por aquilo. E, se fosse gestor do hospital, não gastaria um tostão em tal máquina.

Estou muito longe de ser um ludita. Pelo contrário, sou um entusiasta de diferentes formas de tecnologia e pesquisador de inteligência artificial. Mas, talvez justamente por isso, desenvolvi um olhar bastante crítico sobre essas supostas “operações”.

É um fato que as versões mais recentes de robôs humanoides fazem movimentos incríveis, como se fossem pessoas. Muitos aparecem “trabalhando” em empresas, em atividades diversas. Isso desperta grande entusiasmo em parte do público, como se a ficção científica estivesse se materializando diante de nossos olhos.

Mas a verdade nua e crua é que isso não passa de propaganda. Ironicamente, a inteligência artificial que controla essas máquinas avança de maneira galopante, mas seus corpos ainda se comportam como brinquedos caros e limitados.

Esses robôs funcionam bem em ambientes extremamente controlados, com tarefas previsíveis. Mas o mundo insiste em ser caótico e inesperado. Além disso, os sentidos de uma criança superam largamente os sensores de qualquer robô, permitindo que ela se adapte a situações simplórias cotidianas em que a máquina não sabe o que fazer.

Se há algo que podemos tirar disso é que, apesar de a robótica e principalmente a IA estarem cada vez mais incríveis, há coisas que elas não conseguem fazer, pelo menos ainda. Mas principalmente há aquilo que elas não devem fazer, mesmo sendo capazes. E isso tem a ver com como posicionamos a nossa humanidade nesse cenário.


Veja esse artigo em vídeo:


Apesar desse hype, eu não chamaria esses autômatos de fraudes. As empresas que os criam estão efetivamente buscando soluções para problemas reais, como robôs capazes de operar em ambientes insalubres para pessoas. Elas também os estão testando e coletando informações no mundo real para treinar seus sistemas.

Mas me incomoda essa apresentação como máquinas que já fossem versáteis e confiáveis, convencendo muita gente dessas características que elas não têm. A única coisa totalmente verdadeira agora é o desejo de seus fabricantes de encher nossos olhos para conseguirem muito dinheiro de investidores. E assim nós promovemos uma tecnologia incipiente por acreditarmos que já estamos perto do mundo dos Jetsons.

Certamente, em algum dia, essas máquinas “chegarão lá” e se tornarão tudo que prometem ser. Mas não será neste ano, nem no próximo. Em ambientes menos complexos, como em uma linha de montagem, que deve ser o mais previsível possível, teremos robôs humanoides confiáveis talvez em uns cinco anos.

No setor de serviços, robôs humanoides efetivamente funcionais devem demorar ainda mais (talvez uma década), pois se trata de um local bem mais imprevisível e confuso. Pior que isso, só mesmo o ambiente doméstico, pois casas são caóticas, cheias de variáveis, objetos irregulares e situações inesperadas.

Não estou falando dos aspiradores de pó robôs, que desempenham bem o seu trabalho por fazerem apenas uma coisa e serem otimizados para isso. Para uma máquina substituir com vantagens um trabalhador doméstico humano, ela precisa combinar três coisas que hoje não existem, que são uma destreza física avançada, uma compreensão contextual sofisticada e um custo acessível.

Para termos isso, pelo menos 15 anos ainda serão necessários.

 

A dificuldade de “estar no mundo”

Em todas essas situações, quanto menos parametrizadas forem suas tarefas, pior. Por isso, se o robô tiver que lidar com pessoas, que são imprevisíveis por definição, a sua eficiência cai exponencialmente.

Não se trata apenas de uma limitação mecânica, e sim cognitiva. Interagir com humanos exige compreensão de linguagem, contexto e emoção. E mesmo com os avanços recentes da IA generativa, integrar isso de forma confiável em um corpo físico artificial ainda é um desafio técnico enorme.

Nosso organismo evoluiu por milhões de anos para tirarmos o máximo das sensações de estarmos imersos no mundo. Isso é natural até para um bebê, mas não para uma máquina. Um exemplo são os carros autônomos, que se envolvem em menos acidentes que motoristas humanos, porém ainda apresentam eventualmente comportamentos erráticos e inexplicáveis, por mais que façam a única tarefa de dirigir.

A solução passa pela chamada “inteligência artificial sensitiva”. Ela não significa consciência ou sentimentos das máquinas, mas sim sua capacidade de integrar tipos variados de percepção, como visão, áudio e tato, e transformar isso em ação. Para isso, combinam visão computacional, linguagem natural e controle motor.

Nos últimos anos, houve progressos relevantes nessa área. Empresas como a OpenAI e o Google DeepMind vêm desenvolvendo os chamados “modelos de mundo”. Eles permitem que os robôs aprendam tarefas menos por programação explícita e mais por demonstração ou instrução em linguagem natural. Mas ainda há um descompasso entre a percepção e a tomada de decisão, que melhoraram muito, e a execução física, que continua tosca.

Há ainda um componente psicológico. Queremos que máquinas “entendam” e “sintam” não só por eficiência, mas porque isso torna a nossa interação com elas mais natural. Talvez a busca por robôs humanoides “sensíveis” se refira menos a objetivos técnicos e mais à nossa expectativa de conviver com tecnologias que se pareçam conosco.

Precisamos avaliar se isso é mesmo necessário para que sejam úteis, especialmente em atividades críticas, como as que envolvem a integridade e a saúde das pessoas. Então possivelmente os robôs mais úteis não serão humanoides, mas sistemas híbridos, como uma espécie de “infraestrutura inteligente”.

Em qualquer caso, a regra de ouro é que tanto a IA quanto os robôs só devem ser concebidos para o bem da humanidade, e não para interesses de marketing de seus fabricantes. Resta saber se isso nos será entregue.