Microsoft

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores – Ilustração: Paulo Silvestre

A democracia precisa que o jornalismo e a inteligência artificial se entendam

By | Jornalismo, Tecnologia | No Comments

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o “maior risco global no curto prazo”.

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.


Veja esse artigo em vídeo:


Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

“Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Só que é mais ou menos isso que a OpenAI faz quando pega esses dados”.

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do “uso justo” (“fair use”), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer –ou mais especificamente confundir– os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. “Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade”, sugere Crespo. “É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso.”

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

O premiado cineasta espanhol Pedro Almodóvar, que teve o cartaz de seu novo filme, “Madres Paralelas”, censurado pelo Instagram

As pessoas podem emburrecer a inteligência artificial

By | Tecnologia | No Comments

Nesse exato momento, um sistema de inteligência artificial pode estar tomando uma decisão em seu nome! Mas, apesar de sua incrível capacidade computacional, não há garantia de que esteja fazendo a melhor escolha. E, em muitos casos, os responsáveis pela falha são outros usuários.

Vivemos isso diariamente e o exemplo mais emblemático são as redes sociais. Essas plataformas decidem o que devemos saber, com quem devemos falar e sugerem o que devemos consumir. E são extremamente eficientes nesse propósito, ao exibir sem parar, em um ambiente em que passamos várias horas todos os dias, o que consideram bom e ao esconder o que acham menos adequado.

Alguns acontecimentos recentes reforçam isso, demonstrando que esses sistemas podem tirar de nós coisas que, na verdade, seriam muito úteis para nosso crescimento. Não fazem isso porque são “maus”, e sim por seguirem regras rígidas ou por estarem sendo influenciados por uma minoria de usuários intolerantes. E pessoas assim podem ser incrivelmente persistentes ao tentar impor suas visões de mundo, algo a que esses sistemas são particularmente suscetíveis.

No final das contas, apesar de a inteligência artificial não ter índole, ela pode desenvolver vieses, que refletem a visão de mundo das pessoas a sua volta.


Veja esse artigo em vídeo:


Um exemplo recente disso foi a censura pelo Instagram do cartaz do novo filme do premiado diretor espanhol Pedro Almodóvar. O pôster de “Madres Paralelas” traz um mamilo escorrendo uma gota de leite dentro de um contorno amendoado, dando ao conjunto a aparência de um olho derramando uma lágrima. O autor da peça é o designer espanhol Javier Jaén.

O algoritmo do Instagram identificou o mamilo, mas não foi capaz de interpretar a nuance artística envolvida. Como há uma regra nessa rede que proíbe fotos em que apareçam mamilos, para combater pornografia, a imagem foi sumariamente banida da plataforma. Depois de muitos protestos, incluindo de Almodóvar e de Jaén, o Facebook (que é dono do Instagram) se desculpou e restaurou os posts com o cartaz, explicando que, apesar das regras contra a nudez, ela é permitida “em certas circunstâncias, incluindo quando há um contexto artístico claro”.

Não é de hoje que o Instagram cria polêmicas ao bloquear imagens e até suspender usuários por decisões equivocadas de seus algoritmos. Um caso recorrente há anos são fotos de mulheres amamentando. Oras, amamentação só é pornografia na cabeça de pervertidos… e de alguns algoritmos.

O sistema é bastante inteligente para identificar um mamilo entre milhões de fotos, mas muito burro para interpretar os contextos. Ironicamente vemos baldes de fotos com proposta altamente sexualizada no mesmo Instagram, que “passam” porque os mesmos mamilos são cobertos, às vezes com rabiscos grosseiros sobre a foto.

Ou seja, quem age naturalmente, com algo que está dentro do que a humanidade considera normal e até positivo pode ser punido. Por outro lado, quem “joga com o regulamento debaixo do braço” (como se diz nos torneios esportivos) pode driblar o sistema para atingir seus objetivos impunemente.

 

Ferramenta de intolerância

Em um programa de computador convencional, o desenvolvedor determina que, se uma condição A acontecer, o sistema deve executar a ação B. Nesse modelo, o profissional deve parametrizar todas as possibilidades, para que a máquina opere normalmente.

Na inteligência artificial, não se sabe de antemão quais condições podem acontecer. O sistema é instruído a tomar ações seguindo regras mais amplas, que são ajustadas com o uso.

A máquina efetivamente é capaz de aprender o que seus usuários consideram melhor para si. Com isso, suas ações tenderiam a ser mais eficientes segundo o que cada pessoa aprova e também pela influência do grupo social que atende.

O problema surge quando muitas pessoas que usam um dado sistema são intolerantes ou têm valores questionáveis. Nesse caso, elas podem, intencionalmente ou não, corromper a plataforma, que se transforma em uma caixa de ressonância de suas ideias.

Um dos exemplos mais emblemáticos disso foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela dava vida a uma conta no Twitter para conversar e aprender com os usuários, mas ficou apenas 24 horas no ar.

Tay “nasceu” como uma “adolescente descolada”, mas, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas) rapidamente desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, ela começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. A ideia é promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

Tomando decisões comerciais

Em maio de 2018, o Google deixou muita gente de boca aberta com o anúncio de seu Duplex, um sistema de inteligência artificial capaz de fazer ligações para, por exemplo, fazer reservas em um restaurante. Na apresentação feita no evento Google I/O pelo CEO, Sundar Pichai, a plataforma simulava com perfeição a fala de um ser humano e era capaz de lidar, em tempo real, como imprevistos da conversa.

O produto já foi integrado ao Google Assistente na Austrália, no Canadá, nos Estados Unidos, na Nova Zelândia e no Reino Unido. Mas, diante da polêmica em que muita gente disse que se sentiria desconfortável de falar com um sistema pensando que fosse outra pessoa, agora as ligações do Duplex informam ao interlocutor, logo no começo, que está falando com uma máquina.

No final de 2019, fui convidado pela Microsoft para conhecer o protótipo de um assistente virtual que ia ainda mais longe, sendo capaz até de tomar decisões comerciais em nome do usuário. Muito impressionante, mas questionei ao executivo que a apresentou qual a certeza que eu teria de que a escolha feita pelo sistema seria realmente a melhor para mim, sem nenhum viés criado por interesses comerciais da empresa.

Segundo ele, o uso de uma plataforma como essa implicaria em uma relação de confiança entre o usuário e ela. O sistema precisa efetivamente se esforçar para trazer as melhores opções. Caso contrário, se tomar muitas decisões erradas, ele tende a ser abandonado pelo usuário.

Essa é uma resposta legítima, e espero que realmente aconteça assim, pois o que vi ali parecia bom demais para ser verdade, apesar da promessa de que estaria disponível no mercado em um horizonte de cinco anos. Mas infelizmente o que vemos hoje nas redes sociais, que nos empurram goela abaixo o que os anunciantes determinam, coloca em xeque a capacidade de as empresas cumprirem essa promessa.

O fato é que a inteligência artificial está totalmente integrada ao nosso cotidiano, e isso só aumentará. Com seu crescente poder de influência sobre nós, os desenvolvedores precisam criar mecanismos para garantir que esses sistemas não abandonem valores inegociáveis, como o direito à vida, à liberdade e o respeito ao próximo, por mais que existam interesses comerciais ou influências nefastas de alguns usuários.

Quanto a nós, os humanos que se beneficiam de todos esses recursos e que têm o poder de calibrá-los para que nos atendam cada vez melhor, precisamos ajustar nossos próprios valores, para que não caiamos nesse mesmo buraco moral.

Pare de se SABOTAR e comece a INOVAR!

By | Educação | 14 Comments
O incrível e maluco Dr. Emmett Brown (Christopher Lloyd, à esquerda) tenta usar uma invenção em Marty McFly (Michael J. Fox), no filme “De Volta para o Futuro” – Imagem: divulgação

O incrível e maluco Dr. Emmett Brown (Christopher Lloyd, à esquerda) tenta usar uma invenção em Marty McFly (Michael J. Fox), no filme “De Volta para o Futuro”

Inovar se tornou um mantra para sucesso de empresas e na carreira. Algumas das companhias mais admiradas do mundo –como Google, Apple, Facebook, Microsoft– são reconhecidas pela constante inovação, e seus funcionários parecem ter essa capacidade em seu DNA. Mas se inovar goza desse consenso, por que vemos tão poucas empresas e profissionais inovando?

A resposta é simples, porém dura: nós inovamos pouco porque nós nos sabotamos o tempo todo! Não porque ficamos malucos ou masoquistas, mas porque o nosso sistema de ensino forma, ano após ano, jovens com uma visão de mundo que talvez ainda funcionasse bem há uns 50 anos, mas que hoje freia a evolução de cada um de nós.


Vídeo relacionado:


Aprendemos a valorizar conquistas do passado, tradição e solidez de marcas e empresas e a tentar proteger ganhos existentes. Damos enorme atenção à “cash cow”, mesmo quando ela estiver cercada de vários bezerrinhos promissores. Afinal é ela quem dá o leite, até para os tais filhotes.

Nada mais equivocado! Era assim que a Kodak pensava: afinal tinha uma vaca muito gorda e bem estabelecida nos filmes fotográficos. Nunca deu muita bola para aquele bezerro da fotografia digital, que nasceu meio desengonçado no seu próprio curral.

Mas o bezerro renegado cresceu e engoliu a Kodak com leite!

 

Competitividade X inovação

Nossa educação também nos ensina a sermos muito competitivos, de preferência os melhores da sala, da escola. Quando deixamos os bancos escolares, continuamos querendo ser os melhores, inclusive os melhores da empresa. Muitos de nós podemos achar isso bacana, mas essa prática embute algo terrível para o processo de inovação: se estivermos muito ocupados sendo competitivos, esqueceremos de sermos colaborativos.

Grandes ideias cada vez mais são resultado do trabalho de muitas mentes e muitas mãos. Por mais que exista um gênio criativo, sempre existe alguém para complementar suas habilidades. Mesmo nas megacompanhias acima, as grandes ideias vieram de duplas (apoiadas por seus times): respectivamente Larry Page e Sergey Brin, Steve Jobs e Steve Wozniack, Mark Zuckerberg e (heh!) Eduardo Saverin, Bill Gates e Steve Ballmer.

Há ainda uma terceira e perversa característica que nossas escolas plantam em nossos corações para que nos sabotemos mais tarde: a Intolerância a falhas. Em sistemas de avaliação compostos de provas e trabalhos que punem severamente os erros com a perda de nota, os estudantes aprendem a não ousar, pois isso aumenta implicitamente a chance de cometer algum deslize. Ao invés disso, procuram fazer apenas o essencial e “seguro” para garantir a aprovação. Não precisa ser gênio para perceber que isso envenena as sementes da inovação no momento em que elas cogitavam germinar.

O guru da administração Tom Peters costuma dizer que “o fracasso é uma medalha de honra”, pois ele demonstra que se tentou. E conclui: a única maneira de não fracassar em algo é não tentar. Mas essa também é a garantia de que não se atingirá o sucesso em nada.

Então como podemos inovar diante de um cenário desses?

 

Olhe para frente!

Conduzir um negócio ou a própria carreira dessa forma é como dirigir um carro olhando para o retrovisor. Confiamos no que já passou e esquecemos de olhar para onde realmente importa: a estrada à nossa frente.

Os pontos negativos citados acima precisam ser substituídos por coragem, curiosidade e a vontade de aprender! Ou seja, temos que cortejar a vontade de correr riscos, pois “o fracasso é ingrediente do sucesso”, novamente citando Peters.

Todos nós já passamos por isso, especialmente na nossa infância e adolescência. Quem não se lembra daquele frio na barriga, misto de medo e excitação, antes de entrar em uma montanha russa pela primeira vez? Ou antes do primeiro beijo? É verdade que muitos acabaram desistindo na primeira vez, talvez até nas seguintes também. Mas em algum momento aquele beijo teve que acontecer! E isso só se deu quando a coragem superou o receio, a curiosidade foi maior que a dúvida e a vontade de aprender nos levou a explorar ainda mais o mundo.

Não podemos aceitar que isso ficou enterrado em algum momento na nossa adolescência. Mas a maioria dos adultos age exatamente dessa forma! Nós nos acomodamos naquilo que conhecemos e dominamos: nos encastelamos ali como senhores da verdade.

Mas longe de ser uma fortaleza, isso é uma vulnerabilidade, pois impede que enxerguemos o novo à nossa volta. E não se engane: a mudança sempre chegará!

Isso me lembra uma experiência profissional que tive. Eu era responsável pela criação dos produtos digitais do grupo. Modéstia à parte, minha equipe e eu propúnhamos algumas coisas realmente interessantes e inovadoras. Mas quando as apresentávamos ao conselho de acionistas, invariavelmente acontecia um diálogo mais ou menos assim:

“Isso não vai ameaçar os nossos principais produtos?”

“Sim” –eu respondia.  “Mas, se nós não fizermos isso, alguém fará.”

“Ah, mas se é assim, não podemos fazer isso, não.”

A ideia era arquivada. E, como eu suspeitava, mais cedo ou mais tarde, alguém tinha a mesma ideia e fazia.

Dos tais “principais produtos”, dois já morreram e o que restou respira por aparelhos.

 

Seja honesto e aprenda a ouvir

Outro resquício da nossa educação que permeia empresas e profissionais é que devemos estar sempre “bonitos na foto”, coisa que, aliás, está bem na moda. Como dizia o meu pai, “come frango e arrota peru”.

Mas nem sempre acertamos. Nossa natureza humana é a garantia de que, de vez em quando, é o “frango” mesmo que aparecerá –ou algo ainda pior.

Profissionais e empresas precisam aprender que isso não é nenhum demérito. E que eventuais críticas podem ser uma oportunidade de ouro de vermos nossas imperfeições por um outro ângulo, para que aprendamos a melhorar.

A tecnologia está deixando o mundo cada vez mais transparente. Por isso, empresas que tentam encobrir suas falhas e até mesmo apagar comentários negativos podem, na melhor das hipóteses, passar por ridículas e, na pior, sofrer duríssimos golpes nos seus negócios.

Não basta ser honesto e transparente apenas para fora, com consumidores, governo e opinião pública. A inovação acontece de maneira mais rápida e natural em companhias que agem dessa forma sincera também para dentro, com seus funcionários, sem demagogia ou cortinas de fumaça. É preciso mudar não apenas as palavras, mas também as ações, inclusive na cultura da companhia.

Relembrando novamente a empresa que mencionei acima, de que adiantava o CEO nos dizer que deveríamos “pular no abismo” (no sentido de inovar), se o Conselho nos agarrava pelos pés?

Inovação é um processo incrível e libertador! Não se inova coletando mais informação, aplicando novos e eficientes processos, implantando tecnologia de ponta. Esses todos são elementos, ferramentas que podem ajudar.

Mas a inovação só acontece mesmo quando aceitamos que somos vulneráveis e que sempre podemos aprender algo novo. Aventure-se!


Artigos relacionados:

Dá para ser cliente quando o mundo o quer como produto?

By | Jornalismo, Tecnologia | No Comments

Imagem: reprodução

No Estadão de ontem, Eugênio Bucci se baseou em uma charge que tem circulado pelo Facebook para fazer uma interessante análise sobre como a atividade jornalística deveria ser financiada. Ele defende algo que já foi tratado aqui no dia 7 de novembro: para uma imprensa realmente livre, o financiamento deve vir de seu público.

Mas não é apenas com dinheiro que esse financiamento pode ser feito, como o próprio jornalista explica. E justamente aí entra a charge, reproduzida acima e publicada originalmente no site Geek and Poke (sem a pertinente crítica ao Facebook). Resumidamente, se você não está pagando em cash pela notícia, está aceitando que o veículo venda uma parcela da sua atenção aos anunciantes. E aí você deixaria de ser o cliente e passaria a ser o produto.

Isso não é nada novo: toda a TV aberta (e não apenas seus produtos jornalísticos), com seus custos de produção altíssimos, sempre foi mantida pela publicidade. Nesse caso, o público sempre foi o produto, consciente disso. A novidade é que esse modelo está extrapolando suas formas tradicionais.

Dá para ser cliente quando o mundo o quer como produto? Temos, por exemplo, o Positivo, fabricante de computadores que se firmou no mercado com uma imagem de equipamentos com preços baixos. Como forma de ampliar os seus ganhos, a empresa agora quer colocar anúncios na área de trabalho do Windows de seus consumidores e até nas caixas de seus computadores.

A gigantesca Microsoft também embarcou nessa onda, inspirada no seu rival Google, que espalha seus microanúncios pelos seus produtos. O Office Starter, versão light do seu pacote de escritórios com apenas o Word e com o Excel, vem pré-instalado em computadores e pode ser usado gratuitamente, desde que o usuário não se importe com os anúncios que exibe.

Aplicativos para smartphones, mesmo os que custam um mísero US$ 1, também costumam oferecer uma versão completamente gratuita, subsidiada pela exibição de anúncios. Pagando pelo produto, os anúncios desaparecem.

O fato: em maior ou menor grau, as pessoas parecem não se importar muito com essa invasão publicitária, principalmente em produtos que foram concebidos com a presença dos anúncios. Dessa forma, se incomodam mais com os anúncios ocupando espaço na sua tela do Word que com anúncios em produtos jornalísticos.

Será esse o caminho que o jornalismo deve seguir para se sustentar?

Separação Igreja-Estado

É uma possibilidade a ser considerada, com serenidade. Outros modelos já discutidos aqui, como o “soft paywall” do The New York Times, também podem render frutos. Mas as empresas de comunicação precisam aceitar o fato de que o público resiste em desembolsar seus cobres pelo noticiário.

Caso decidam ampliar o caminho da publicidade, os publishers precisam reforçar o conceito da “separação Igreja-Estado”. Ou seja, decisões comerciais não podem influenciar o noticiário, e vice-versa. Dessa forma, a Redação deve ter liberdade para criticar uma empresa, mesmo que ela seja seu maior anunciante.

Bucci explica o motivo em seu artigo: mesmo em um ambiente financiado por publicidade, o público deve ser considerado como o verdadeiro cliente, pois é apenas por causa dele que os anunciantes colocam dinheiro nos veículos. Dessa forma, tem o direito de receber um produto jornalístico isento e focado em seus interesses.

As empresas estão dispostas a fazer isso? No mundo ideal, sim; na prática, poucas são capazes de levar esse conceito até o fim.

Os publishers devem avaliar esses dois conceitos –maneiras criativas de financiamento por publicidade e a garantia da independência editorial– com muita atenção. O mundo quer o público como produto e as próprias pessoas parecem topar essa situação. Mas os jornalistas nunca devem deixar de encará-las como os seus verdadeiros clientes. Qualquer que seja o modelo de financiamento, a essência do jornalismo passa por garantir um noticiário isento.

Tirem os advogados, tragam os engenheiros

By | Tecnologia | No Comments
A bandeira pirata hasteada à frente da sede da Apple em 1983

A bandeira pirata hasteada à frente da sede da Apple em 1983

A Apple acaba de ganhar mais um round contra a Samsung: dessa vez, impediu que sua filial alemã distribua o Galaxy Tab 2, de 10,1 polegadas. Apesar de provavelmente não trazer muitos efeitos práticos, pois os aparelhos poderão ser trazidos de outras partes do mundo para ser vendidos na Alemanha, é mais um capítulo de uma guerra travada por advogados das duas empresas. A Samsung contra-ataca com processos contra a Apple, também por violação de patentes.

Ninguém sugere que uma companhia não defenda seus investimentos milionários em pesquisa, mas não deixa de ser irônico ver a Apple tentando impedir que outras companhias lancem produtos que, digamos, se pareçam muito aos seus.

Vale aqui uma pequena aula de história da indústria de microinformática. No início dos anos 1980, quando a Apple atingiu o topo pela primeira vez, com seu Apple II, a empresa investiu em uma nova tecnologia: a interface gráfica, que viabilizou o seu Apple Lisa e, logo na sequência, o primeiro Macintosh.

A referida ironia está no fato de que a primeira interface gráfica e o mouse não terem sido inventados pela Apple, e sim por um grupo de pesquisa da Xerox. Os executivos dessa última não deram a menor bola para a criação de seus engenheiros. Pior que isso: abriram caminho para que Steve Jobs e sua turma literalmente se apropriassem dessa tecnologia e praticamente assumissem a sua paternidade. Não é de se espantar que, à frente da sede da Apple, a bandeira pirata estilizada (acima) ficasse hasteada.

Logo depois, a Apple provou do próprio veneno, quando a Microsoft se “inspirou” no Mac para lançar o seu Windows. Esses dois “roubos”, o da Apple e o da Microsoft, estão magistralmente representados no vídeo abaixo, um trecho do filme “Piratas da Informática” (“Pirates of the Silicon Valley”, no original):

[youtube=http://www.youtube.com/watch?v=JDPQABGyId4]

A Apple sempre acusou a Microsoft de ter copiado o sistema operacional do Macintosh para criar seu Windows. Felizmente nunca conseguiu impedir que a turma de Bill Gates seguisse adiante com sua própria interface gráfica. Pois, se a Xerox inventou e a Apple refinou o conceito, foi indubitavelmente a Microsoft quem o popularizou, tornando o computador finalmente algo acessível às massas.

De volta a 2011: a Apple agora quer impedir o crescimento do Android, apontando sua artilharia principalmente para os produtos da linha Galaxy, os principais concorrentes do iPhone e do iPad. O fato é que o hardware do Galaxy Tab 2 é superior ao do iPad 2. O Android também chegou lá, na sua versão 3: é um produto maduro e sofisticado. Pesam a favor do iPad várias vantagens por ter sido lançado muito antes (pelo menos para os padrões dessa indústria alucinada).

Afinal, qual o problema com a turma de Cupertino? Seus produtos são excepcionais, e a Apple se parece mais a uma religião que a uma empresa, com uma (crescente) legião de fieis. Mas eu darwinianamente acredito que a diversidade e as interações entre as espécies levam à evolução. Tentar frear isso em tribunais é muito triste, para dizer o mínimo. Além disso, ter uma concorrência forte é a receita para uma empresa continuar inovando, e já passou da hora de a Apple ser confrontada de verdade. Por isso, espero que as empresas tirem logo seus advogados de cena e deixem seus engenheiros trabalhar. É aí que está a centelha criativa. É aí que os usuários e as próprias empresas ganham.

Mais vale um Twitter na mão que dois na concorrência

By | Tecnologia | 3 Comments
O mercado acredita que o passarinho do Twitter pode cair em breve na arapuca do Google

O mercado acredita que o passarinho do Twitter pode cair em breve na arapuca do Google

Esquentam os rumores de que o Google estaria prestes a fazer uma oferta pelo Twitter. O TechCrunch já colocou até um preço: US$ 250 milhões em dinheiro ou equivalente. O mesmo post afirma que o passarinho já recusou uma oferta de US$ 500 milhões feita pelo Facebook há alguns meses, mas havia a diferença de que, naquele caso, boa parte do pagamento seria feito em ações, que poderiam estar com seu valor inflado.

Você usa o Twitter? Se nem sabe o que é, recomendo que veja o vídeo que pode ser disparado da home page do serviço. Não estou sugerindo que, se não usa, você está por fora da revolução tecnológica. Na verdade, o produto é mais um dos sucessos estrondosos da Internet que a mídia explora à exaustão, como aconteceu com o Second Life há uns três anos. Mas há uma pergunta a ser feita aqui: o que faria o Google despejar quarto de milhão de dólares em algo que muita gente acha que não passa de um hype? Por que não compraram também o Second Life então?

A resposta é que o Twitter tem algo que muito interessa ao Google que o Second Life não tem: informações reais sobre pessoas reais, em tempo real. E é justamente organizando quantidades astronômicas de informação que o Google ganha dinheiro. Eles são capazes de extrair dinheiro ao avaliar os movimentos não apenas do mercado, mas do mundo, da vida cotidiana das pessoas e das empresas. Os caras têm a mão no pulso do planeta. E é exatamente o que o Twitter oferece.

Será que o Google vai pegar esse passarinho? Se conseguir, será mais um golpe na sua concorrência direta: Microsoft e Yahoo!