transparência

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Cena do filme “Eu, Robô” (2004), baseado na obra de Isaac Asimov, em que as máquinas seguem as “Leis da Robótica”

ChatGPT põe fogo no debate sobre regulamentação da inteligência artificial

By | Tecnologia | No Comments

O sucesso explosivo do ChatGPT deu novos contornos à discussão se a inteligência artificial deve ser, de alguma forma, regulada. Com 100 milhões de usuários em apenas dois meses, a plataforma da OpenAI tornou-se o produto com adesão mais rápida da história. Sua capacidade de gerar textos convincentes sobre qualquer assunto a partir de comandos simples colocou, em polos opostos, especialistas com fortes argumentos favoráveis e contrários ao controle dessa tecnologia.

De um lado, a turma que defende a regulação aponta que tanto poder computacional poderia causar severos danos ao tomar decisões potencialmente erradas em áreas sensíveis e diversas, como a saúde, a segurança pública ou até na condução de carros autônomos. Do outro, há os que argumentam que leis assim, além de que seriam difíceis de definir e aplicar, inibiriam o desenvolvimento de uma tecnologia que pode levar os humanos a um novo patamar de produtividade. Afirmam ainda que se penalizaria os sistemas, ao invés de criminosos que fizessem maus usos deles.

O fato é que criar um regulamento para uma tecnologia tão inovadora, abrangente e poderosa quanto a inteligência artificial é mesmo um desafio. Ela se desenvolve em uma velocidade estonteante e fica difícil imaginar como qualquer legislação pode acompanhar esse ritmo e o que representaria em um futuro breve.


Veja esse artigo em vídeo:


O Senado já se debruçou sobre o tema. Entre março e dezembro de 2022, uma comissão de 18 juristas debateu o assunto com membros da academia, da sociedade civil e de empresas. Ao final, elaborou uma proposta com 45 artigos e um relatório com mais de 900 páginas, que sugere restrições ao uso de reconhecimento facial indiscriminado por câmeras e a proibição de um “ranqueamento social” com base nas ações de cada pessoa, como acontece na China. Indica ainda que fornecedores ou operadores de sistemas de “alto risco” respondam por eventuais danos que causem.

Foram analisadas legislações aprovadas entre os países da OCDE (Organização para a Cooperação e Desenvolvimento Econômico). A União Europeia pretende chegar a um consenso de projeto regulador até março. Nos Estados Unidos, um comitê consultivo, criado em abril de 2022, espera apresentar uma lei nesse ano.

Mas vale dizer que tudo isso aconteceu antes do lançamento do ChatGPT, no dia 30 de novembro. E ele jogou por terra o que se sabia sobre IA para as massas. “Quando a gente fala em inteligência artificial, um dos grandes pontos sempre é como conseguir dar transparência, sem você violar a propriedade industrial ou intelectual”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing).

Esse é um dos problemas das “inteligências artificias generativas”, como o ChatGPT. Elas produzem coisas incríveis, mas não contam de onde vieram as informações de que “aprenderam” cada tema. Também não fica claro o que acontece “debaixo do capô”, os mecanismos que lhes permitiram chegar a suas conclusões. Para Crespo, “ao invés de simplesmente dizer ‘regular’, deve ser ‘regular pensando no quê’”

Já Paulo de Oliveira Júnior, consultor de inovação e desenvolvimento do Machado Meyer Advogados, afirma que a regulamentação é essencial. “É importante para que a gente possa garantir que a tecnologia não venha a causar nenhum dano para a sociedade, seja ela no campo social, econômico ou político”, explica, concluindo que “é importante que se tenha mais previsibilidade, à medida que a tecnologia vai fazendo parte do nosso dia a dia.”

 

Prós e contras

Além dos motivos já citados, os defensores de uma regulamentação argumentam que ela é necessária para se ter uma garantia mínima de proteção aos dados pessoais usados pelas diferentes aplicações da inteligência artificial. Afinal, se as redes sociais já abusam de nossas informações para fazer dinheiro, com a inteligência artificial, isso ficaria ainda mais difícil de se compreender e controlar.

A legislação também seria necessária para minimizar um problema que vem incomodando em diferentes usos da IA há muitos anos: sistemas que desenvolvem vieses. Isso pode acontecer pelas informações que consome, ao incorporar preconceitos dos desenvolvedores e até aprendendo dos próprios usuários.

Curiosamente um dos argumentos daqueles que são contrários a uma regulação é que as plataformas não poderiam ser responsabilizadas por esse mau uso, e que as pessoas é que deveriam ser controladas e até punidas. Eles também afirmam que esse controle seria falho, pois suas definições seriam imprecisas, criando confusão ao invés de ajudar o mercado.

Esse é um ponto a se considerar. Diversos países do mundo, inclusive o Brasil, estão há uma década tentando regular as redes sociais, sem sucesso. Nós mesmos estamos passando por uma bem-vinda discussão sobre como minimizar os efeitos nocivos das fake news, mas ela falha no ponto essencial de definir o que é desinformação de maneira inequívoca. E isso pode, não apenas impedir os efeitos desejados, como ainda criar um mecanismo de censura.

De forma alguma, isso significa que uma regulamentação não deva ser avaliada. É exatamente o contrário: precisamos de muito debate, incluindo todos os diferentes atores da sociedade envolvidos, para que uma lei não seja criada de maneira enviesada ou incompleta. Isso, sim, seria péssimo!

Especialmente em um país como o Brasil, em que o tecido social foi esgarçado nos últimos anos pelo mau uso de plataformas digitais e onde a violência lidera as preocupações dos cidadãos, é fácil defender um discurso de “vigilantismo”. Não é disso que precisamos!

“A gente vai ter que caminhar para uma regulamentação mais abrangente, que garanta os preceitos éticos e seguros, e cada setor da economia vai ter que fazer sua regulamentação específica”, sugere Oliveira. Já Crespo traz a ideia de que cada produto de IA a ser lançado passe por uma espécie de “relatório de impacto”. “Ele incluiria o que é, quais os principais benefícios e quais os possíveis riscos embarcados, trazendo uma previsibilidade”, explica.

Talvez o melhor caminho seja algo assim mesmo. E a “lei geral da inteligência artificial” poderia ser as Leis da Robótica, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Se conseguíssemos garantir que todas as plataformas de inteligência artificial cumprissem essas quatro diretrizes, já seria um bom começo!

 

Por que o LinkedIn é o melhor lugar para construir sua reputação

By | Educação, Tecnologia | No Comments

Foto: Visual Hunt (Creative Commons)

Este é o meu centésimo artigo no LinkedIn. E foram necessárias apenas cem semanas para chegar a ele! Nesse tempo, pessoas de diferentes perfis me perguntaram inúmeras vezes o que eu ganhava escrevendo de graça nessa rede social (não, o LinkedIn não me paga nada, nem mesmo depois de ter sido eleito Top Voice). E a resposta é: essa é a melhor forma de construir uma boa reputação. Em outras palavras, se você fizer isso da maneira certa (e qualquer um -mesmo- pode fazer isso!), conseguirá demonstrar a uma quantidade imensa de pessoas como você é bom naquilo que faz.

Uma reputação alta é, portanto, a melhor forma de marketing, pois ela mostra seus pontos fortes de forma transparente e sincera. Não se trata de empurrar uma mensagem publicitária goela abaixo do público, esperando que adquiram seu produto. E não pode ser comprada com dinheiro algum, o que a torna ainda mais nobre.

Também cansei de ouvir de pessoas, das mais diversas, um pedido para lhes contar o “segredo” para ter essa reputação, e principalmente para ser Top Voice. Na verdade, querem uma “receita de bolo” para chegar ao topo, e estão dispostas a pagar por isso.

Mas, como disse acima, reputação não se compra: se conquista.

Quando escrevo um artigo, gravo um vídeo, faço um post, eu tenho sempre claro que aquilo impactará muita gente. E tenho que ter a humildade para aceitar que não tenho nenhum controle de como isso acontecerá: cada um receberá aquilo a sua maneira.

Portanto, desde o primeiro artigo que publiquei aqui, sei que isso é uma doação que faço a pessoas que provavelmente jamais conhecerei. O que aumenta ainda mais a responsabilidade: não posso escrever qualquer coisa.

Esse é o começo do caminho.

 

Desejo de contribuir

Devemos sempre produzir sobre o que nós sabemos, é claro: a reputação não será muito boa se fizermos isso com temas que não dominamos. Mas isso é muito diferente de escrever para nós mesmos ou para nossos pares.

A menos que você esteja deliberadamente querendo falar para seus colegas (o que é legítimo), você precisa usar seu conhecimento para contribuir com seu público. Procure algo que seja de interesse da sociedade e em que você possa ajudar. E vá em frente!

A verdade é que, se você quiser construir a sua reputação, pouco importa o que você quer, mas muito importa o que todos querem.

Todos nós temos algo a contribuir, esteja certo disso. Todos! E para cada contribuição que fizermos, a natureza oferecerá alguém que aprenderá conosco. E nos agradecerá por isso.

Como disse o escritor americano Walt Whitman (1819 – 1892):

 

“O que há de bom em tudo isso, ó eu, ó vida?
Resposta.
Que você está aqui – que a vida existe e identifica;
Que a poderosa peça teatral continua, e que você contribuirá com um verso.”
 

Fuja do “lado sombrio”

O LinkedIn é um espaço de troca de boas ideias, e isso o torna tão especial e diferente das outras redes sociais. O seu próprio algoritmo de relevância cuida de nos mostrar não apenas publicações de pessoas com as quais nos relacionamos, mas também conteúdos que buscamos. Portanto, não há lugar melhor para trazer propostas construtivas e, dessa forma, tornar-se conhecido como uma referência na sua área de atuação. Quem faz isso com eficiência e com constância efetivamente constrói uma boa reputação.

Infelizmente tenho notado, já há alguns meses, uma energia negativa invadindo essa rede. Pessoas que se dedicam a apenas criticar tudo e todos, apontar o dedo, desqualificar propostas legítimas apenas por não concordar com o posicionamento, abrir feridas só para meter o dedo depois.

Infelizmente isso também dá audiência, pois, em algumas ocasiões, o “lado sombrio” ressoa nas dores de outras pessoas. E esse é um caminho mais fácil, às vezes até mais sedutor.

Mas vou lhes contar um “segredo”: nada que seja destrutivo é capaz de construir algo bom. Isso parece uma obviedade atroz. Mas então porque vemos cada vez mais essa mancha no LinkedIn?

Não se deixe seduzir por isso! Pessoas com essa pauta podem eventualmente gerar muita espuma na rede, criando polêmicas que movimentam as massas e produzem grande engajamento. Podem até conseguir muitos seguidores. Mas que se pode esperar da qualidade dessa rede?

Podem até me achar inocente, mas eu lhes digo: o bem sempre vence no final! Existem mais pessoas boas que más no mundo. E assuntos construtivos sempre serão os mais buscados no LinkedIn. Use-os para construir a sua boa reputação!

No dia 1 de outubro, há apenas oito dias, cheguei a 400 mil seguidores aqui. E agora estou perto dos 410 mil. Claro que esses números me deixam orgulhoso. Não pela sua enormidade, mas porque eles me indicam que, de alguma forma, devo estar fazendo alguma coisa boa pelas pessoas. E isso é a maior de todas as alegrias. A minha reputação é apenas uma consequência disso.

Como diria Whitman, eu contribuirei com um verso. Sempre. E convido você a vir comigo.


Artigos relacionados:

Pare de se SABOTAR e comece a INOVAR!

By | Educação | 14 Comments
O incrível e maluco Dr. Emmett Brown (Christopher Lloyd, à esquerda) tenta usar uma invenção em Marty McFly (Michael J. Fox), no filme “De Volta para o Futuro” – Imagem: divulgação

O incrível e maluco Dr. Emmett Brown (Christopher Lloyd, à esquerda) tenta usar uma invenção em Marty McFly (Michael J. Fox), no filme “De Volta para o Futuro”

Inovar se tornou um mantra para sucesso de empresas e na carreira. Algumas das companhias mais admiradas do mundo –como Google, Apple, Facebook, Microsoft– são reconhecidas pela constante inovação, e seus funcionários parecem ter essa capacidade em seu DNA. Mas se inovar goza desse consenso, por que vemos tão poucas empresas e profissionais inovando?

A resposta é simples, porém dura: nós inovamos pouco porque nós nos sabotamos o tempo todo! Não porque ficamos malucos ou masoquistas, mas porque o nosso sistema de ensino forma, ano após ano, jovens com uma visão de mundo que talvez ainda funcionasse bem há uns 50 anos, mas que hoje freia a evolução de cada um de nós.


Vídeo relacionado:


Aprendemos a valorizar conquistas do passado, tradição e solidez de marcas e empresas e a tentar proteger ganhos existentes. Damos enorme atenção à “cash cow”, mesmo quando ela estiver cercada de vários bezerrinhos promissores. Afinal é ela quem dá o leite, até para os tais filhotes.

Nada mais equivocado! Era assim que a Kodak pensava: afinal tinha uma vaca muito gorda e bem estabelecida nos filmes fotográficos. Nunca deu muita bola para aquele bezerro da fotografia digital, que nasceu meio desengonçado no seu próprio curral.

Mas o bezerro renegado cresceu e engoliu a Kodak com leite!

 

Competitividade X inovação

Nossa educação também nos ensina a sermos muito competitivos, de preferência os melhores da sala, da escola. Quando deixamos os bancos escolares, continuamos querendo ser os melhores, inclusive os melhores da empresa. Muitos de nós podemos achar isso bacana, mas essa prática embute algo terrível para o processo de inovação: se estivermos muito ocupados sendo competitivos, esqueceremos de sermos colaborativos.

Grandes ideias cada vez mais são resultado do trabalho de muitas mentes e muitas mãos. Por mais que exista um gênio criativo, sempre existe alguém para complementar suas habilidades. Mesmo nas megacompanhias acima, as grandes ideias vieram de duplas (apoiadas por seus times): respectivamente Larry Page e Sergey Brin, Steve Jobs e Steve Wozniack, Mark Zuckerberg e (heh!) Eduardo Saverin, Bill Gates e Steve Ballmer.

Há ainda uma terceira e perversa característica que nossas escolas plantam em nossos corações para que nos sabotemos mais tarde: a Intolerância a falhas. Em sistemas de avaliação compostos de provas e trabalhos que punem severamente os erros com a perda de nota, os estudantes aprendem a não ousar, pois isso aumenta implicitamente a chance de cometer algum deslize. Ao invés disso, procuram fazer apenas o essencial e “seguro” para garantir a aprovação. Não precisa ser gênio para perceber que isso envenena as sementes da inovação no momento em que elas cogitavam germinar.

O guru da administração Tom Peters costuma dizer que “o fracasso é uma medalha de honra”, pois ele demonstra que se tentou. E conclui: a única maneira de não fracassar em algo é não tentar. Mas essa também é a garantia de que não se atingirá o sucesso em nada.

Então como podemos inovar diante de um cenário desses?

 

Olhe para frente!

Conduzir um negócio ou a própria carreira dessa forma é como dirigir um carro olhando para o retrovisor. Confiamos no que já passou e esquecemos de olhar para onde realmente importa: a estrada à nossa frente.

Os pontos negativos citados acima precisam ser substituídos por coragem, curiosidade e a vontade de aprender! Ou seja, temos que cortejar a vontade de correr riscos, pois “o fracasso é ingrediente do sucesso”, novamente citando Peters.

Todos nós já passamos por isso, especialmente na nossa infância e adolescência. Quem não se lembra daquele frio na barriga, misto de medo e excitação, antes de entrar em uma montanha russa pela primeira vez? Ou antes do primeiro beijo? É verdade que muitos acabaram desistindo na primeira vez, talvez até nas seguintes também. Mas em algum momento aquele beijo teve que acontecer! E isso só se deu quando a coragem superou o receio, a curiosidade foi maior que a dúvida e a vontade de aprender nos levou a explorar ainda mais o mundo.

Não podemos aceitar que isso ficou enterrado em algum momento na nossa adolescência. Mas a maioria dos adultos age exatamente dessa forma! Nós nos acomodamos naquilo que conhecemos e dominamos: nos encastelamos ali como senhores da verdade.

Mas longe de ser uma fortaleza, isso é uma vulnerabilidade, pois impede que enxerguemos o novo à nossa volta. E não se engane: a mudança sempre chegará!

Isso me lembra uma experiência profissional que tive. Eu era responsável pela criação dos produtos digitais do grupo. Modéstia à parte, minha equipe e eu propúnhamos algumas coisas realmente interessantes e inovadoras. Mas quando as apresentávamos ao conselho de acionistas, invariavelmente acontecia um diálogo mais ou menos assim:

“Isso não vai ameaçar os nossos principais produtos?”

“Sim” –eu respondia.  “Mas, se nós não fizermos isso, alguém fará.”

“Ah, mas se é assim, não podemos fazer isso, não.”

A ideia era arquivada. E, como eu suspeitava, mais cedo ou mais tarde, alguém tinha a mesma ideia e fazia.

Dos tais “principais produtos”, dois já morreram e o que restou respira por aparelhos.

 

Seja honesto e aprenda a ouvir

Outro resquício da nossa educação que permeia empresas e profissionais é que devemos estar sempre “bonitos na foto”, coisa que, aliás, está bem na moda. Como dizia o meu pai, “come frango e arrota peru”.

Mas nem sempre acertamos. Nossa natureza humana é a garantia de que, de vez em quando, é o “frango” mesmo que aparecerá –ou algo ainda pior.

Profissionais e empresas precisam aprender que isso não é nenhum demérito. E que eventuais críticas podem ser uma oportunidade de ouro de vermos nossas imperfeições por um outro ângulo, para que aprendamos a melhorar.

A tecnologia está deixando o mundo cada vez mais transparente. Por isso, empresas que tentam encobrir suas falhas e até mesmo apagar comentários negativos podem, na melhor das hipóteses, passar por ridículas e, na pior, sofrer duríssimos golpes nos seus negócios.

Não basta ser honesto e transparente apenas para fora, com consumidores, governo e opinião pública. A inovação acontece de maneira mais rápida e natural em companhias que agem dessa forma sincera também para dentro, com seus funcionários, sem demagogia ou cortinas de fumaça. É preciso mudar não apenas as palavras, mas também as ações, inclusive na cultura da companhia.

Relembrando novamente a empresa que mencionei acima, de que adiantava o CEO nos dizer que deveríamos “pular no abismo” (no sentido de inovar), se o Conselho nos agarrava pelos pés?

Inovação é um processo incrível e libertador! Não se inova coletando mais informação, aplicando novos e eficientes processos, implantando tecnologia de ponta. Esses todos são elementos, ferramentas que podem ajudar.

Mas a inovação só acontece mesmo quando aceitamos que somos vulneráveis e que sempre podemos aprender algo novo. Aventure-se!


Artigos relacionados: