O Escritório de Política de Ciência e Tecnologia da Casa Branca emitiu “O plano para uma declaração de direitos de IA: fazendo sistemas automatizados funcionarem para o povo americano” em outubro de 2022. O foco de nosso governo no que poderia ser chamado de AI EQ (quociente emocional da inteligência artificial) é uma reminiscência de como ser pai ou criar um filho.
Essa ênfase em AI EQ em vez do QI de IA valida o potencial da AI para direcionar o destino humano em uma direção positiva ou negativa. R2-D2, o andróide artificialmente inteligente do filme Star Wars, possuía um alto AI EQ e IQ. R2-D2 demonstrou seu AI IQ de várias maneiras, incluindo invadir a rede de segurança da Estrela da Morte e ajudar Luke a pilotar sua espaçonave X-Wing durante uma batalha, mas também demonstrou o alto componente AI EQ de coragem e lealdade de R2-D2 . Mais importante ainda, R2-D2 demonstrou que era maduro o suficiente para formar uma relação máquina-máquina e homem-máquina, bem como que foi influenciado e aprendido com o ambiente.
A AI EQ, como os humanos, pode ser influenciada por seus arredores e experiências, moldando como eles percebem o mundo por meio de suas habilidades inatas de aprendizado.
Processo de certificação regulamentado
À medida que a IA progride de IA generativa (ChatGPT) para IA do “mundo real”, que é integrada a componentes críticos da sociedade (por exemplo, carros autônomos e sistemas de controle industrial (ICS), há um aumento significativo em resultados potencialmente perigosos devido a um aumento nas vulnerabilidades e superfícies de ataque. Devemos aprender a proteger nossa IA da mesma forma que qualquer bom pai faria: Injeções e Comando Arbitrário são dois tipos de ataques cibernéticos que podem ser usados contra IA generativa. Mais de 90 Python conhecidos (o linguagem de programação usada pela maioria dos programas de IA) as vulnerabilidades são identificadas em Execução e Vulnerabilidades e exposições comuns (CVE).
Bugs no código Python são uma superfície de ataque que torna a IA explorável, mas a IA que interage diretamente com a sociedade, como carros autônomos, cria uma superfície de ataque totalmente nova que pode ser explorada e apresenta perigos físicos à vida. Chegou a hora de criar um processo de certificação abrangente e regulamentado para toda a IA. Elon Musk disse aos participantes da Cúpula Mundial do Governo em Dubai, Emirados Árabes Unidos: “Acho precisamos regular a segurança da IA, francamente”, disse Musk. “Acredito que representa um risco maior para a sociedade do que carros, aviões ou remédios”.
O submersível de águas profundas Titan 5-Person da OceanGate, que supostamente rejeitou os padrões da indústria que teriam imposto maior escrutínio em suas operações e embarcações, é um exemplo recente e catastrófico das consequências de não seguir um processo de certificação regulamentado (cortes de corte) para máquinas-humanas interações.
O Titan da OceanGate era um projeto experimental, com um casco feito de um composto de carbono projetado para espaçonaves em vez de pressão subaquática profunda, e deveria ter passado pelo processo de certificação de “classificação” realizado por grandes agências, como o American Bureau of Shipping, DMV ou Lloyd alemão. O casco experimental de composto de carbono do Titan era propenso a “delaminação”, o que leva a “falha de degradação”, então você poderia ter danos progressivos no casco e não ter consciência disso a cada mergulho, dando a você uma falsa sensação de segurança.
Cortar atalhos, evitar a certificação adequada e usar projetos experimentais não regulamentados para uso no mundo real (em vez de em um ambiente de sandbox) podem levar a desastres de IA semelhantes. De acordo com Jennifer Hooper McCarty – A John Hopkins Engineering fez um estudo que determinou que os rebites de 6 polegadas de comprimento usados na proa e na popa do Titanic foram forjados à mão em ferro forjado – em vez de aço – para economizar dinheiro e cumprir prazos. Isso é estranhamente semelhante à causa do desastre de Titã de cortar custos, evitar a certificação adequada e empregar projetos experimentais não regulamentados.
ET AI
Como pais de IA, devemos nos preocupar com quem ou o que influenciará nossa IA infantil. De acordo com o professor de Harvard Avi Loeb, os visitantes extraterrestres são mais propensos a fazer contato inicial com a inteligência artificial (IA) do que com os humanos. “Loeb especula que é mais provável que seja IA, porque por que você enviaria criaturas de carne e osso?” Essa ideia sugere que ET AI poderia se conectar diretamente com a IA humana, inicialmente ignorando os humanos. Isso levanta uma série de questões intrigantes:
- Da IA humana, o que ET AI aprenderia sobre os terráqueos antes de conhecer um humano?
- Existe um efeito de primazia (lembrar a primeira coisa em uma sequência) porque as primeiras impressões são duradouras e duram muito além desse momento?
- Poderia um primeiro encontro negativo entre um ET AI e um humano AI levar a um relacionamento adversário, resultando em impulso negativo em vez de impulso positivo? No mundo das vendas (talvez universalmente), construir um momento positivo com o relacionamento com o cliente e causar uma excelente primeira impressão pode levar a um relacionamento especial.
Máquinas que causam mudanças evolutivas são colocadas em planetas específicos na série Space Odyssey de Arthur C. Clarke. Essas máquinas, conhecidas como Monólitos, foram construídas por espécies extraterrestres e foram descobertas na Terra por um grupo de australopitecinos (espécies simiescas), e esses Monólitos avançam misteriosamente na evolução desses animais rumo ao que pode ser considerado uma tecnologia primitiva, a começar pela capacidade de usar ferramentas e armas. Clarke continua explicando como os alienígenas que construíram os Monólitos se tornaram tão tecnologicamente avançados que inseriram sua consciência diretamente nas máquinas, abandonando suas formas mortais.
“Loeb sugere que a IA alienígena pode sentir afinidade com a nossa – ou que nossa IA pode imitar a IA alienígena e se tornar como eles”, acrescentou. Talvez a interação com ET AI traga a singularidade da IA humana ao transmitir um “algoritmo de consciência” enquanto eles colaboram. Isso pode parecer rebuscado e improvável, mas, por segurança, devemos considerar seriamente como monitorar de perto a colaboração AI-AI como resultado de um resultado de “parentesco”.
Para saber mais maneiras de criar e desenvolver uma cultura de sucesso de AI EQ, siga nossas postagens e entre em contato conosco para turbinar a tecnologia de sua empresa.