A criação de riscos de IA pode ser uma forma de mitigar os riscos de IA. Quem decide: uma organização sem fins lucrativos, uma corporação, uma nação ou um tratado? Podem ser necessários extremos nos sistemas e em todas as tarefas para descobrir a profundidade das ameaças. É aí que entra a investigação de segurança, correspondente à IA.
Se a IA for usada em armamento, quais são todas as maneiras possíveis de ela ser detectada e, se possível, preparada para ser combatida, ou pelo menos saber que a IA está em ação?
O mesmo se aplica à segurança cibernética e às armas biológicas. Isso vai além do red teaming [ou jailbreak], onde em vez de explorar falhas em um produto ou serviço, o objetivo é causar impacto no mundo real e divergência para uso indevido e depois consequências.
Na investigação generativa de segurança da IA, é possível utilizar sistemas de IA contra coisas em vários cenários, para tomar consciência das áreas onde as ameaças podem aparecer, mesmo que ainda não existam respostas claras sobre como lidar com elas. Esta poderia ser uma premissa de segurança, além de buscar o alinhamento da IA com os valores humanos.
As empresas de IA estão a instalar barreiras de proteção, o que é bom, mas as suas barreiras de proteção podem não ser a única coisa que importa, porque outras não podem, e podem utilizá-las para fins nefastos. Então, como os laboratórios podem ser a solução quando modelos de outras pessoas estão sendo usados para fins prejudiciais?
Falsificações profundas, clonagem de voz e outras surpresas são lacunas na pesquisa em IA, onde os riscos decorrem de aplicações do mundo real, e não de círculos fechados e aleatórios.
Existem formas de expor um número bastante grande de pessoas — espontaneamente — a alguns resultados da IA sem que estes ainda estejam publicamente disponíveis, a fim de compreender como reagiriam, especialmente em situações em que possam estar emocionalmente envolvidos. Isso é diferente dos testes beta ou das observações que resultaram em habilidades emergentes, bem como nas experiências internas. Isto será semelhante aos estágios dos ensaios clínicos de IA.
A Golden está entre as 15 empresas brasileiras nível Google Workspace premier e apoia a implantação de Google Workspace e Appsheet em todos os níveis de complexidade de implementação! Se tiver dúvidas, só clicar no botão abaixo:
Existem várias eleições de pequena escala entre organizações, associações e outras que não têm tantas consequências como as eleições nacionais em termos de riscos de interferência eleitoral. São casos de teste para ferramentas de IA, onde as campanhas podem fazer o que quiserem e depois recolher dados sobre o que fazem, como os eleitores reagem, o resultado, a irracionalidade das campanhas, e assim por diante. Estes seriam utilizados para aprender como é utilizado e onde as táticas de prevenção podem ser úteis, bem como para ajudar a moldar mensagens de sensibilização para utilização em eleições nacionais.
O objetivo é compreender as implicações do que a aplicação apresenta, preparar-se para isso e encontrar formas de comunicar segurança, de forma mais ampla, contra pessoas que se tornem vítimas dela, especialmente se outra equipe a deixar escapar.
A boa notícia para a investigação em IA é que a equipa de segurança já tinha precauções que o resto do mundo poderia utilizar para mitigar esses riscos.
Há quem esteja preocupado com os riscos atuais da IA. Outros estão preocupados com os riscos da AGI e da sua aquisição.
Esses riscos são viáveis como experimentos de círculo fechado. Para aqueles preocupados com a perda de empregos devido à IA, as funções em organizações onde os LLMs podem ser parcial ou completamente apagados podem ser investigadas para ver o que pode acontecer se um funcionário perder um emprego ou receber um corte salarial como resultado de um mau desempenho ou de uma aquisição da IA.
Devido ao papel dos LLMs nas tarefas, algumas empresas já estão demitindo funcionários. Essas pessoas podem ser rastreadas com base no que farão a seguir ou em suas circunstâncias. Se alguém está desempregado devido à — razão da — substituição pela IA, o objetivo é compreender os cenários e extrapolá-los, preparar opções, ou pelo menos saber o que pode resultar, em vez de assumir que será simplesmente muito mau ou que não haverá sentido para a vida.
Algumas pessoas estão preocupadas com o preconceito. O mesmo se aplica ao preconceito da IA, às pessoas afectadas e aos resultados, tanto em estudos controlados mas aleatórios, como em casos e consequências do mundo real, para preparar, encontrar opções e comunicar eficazmente, tudo como aspectos da investigação.
O que a AGI poderá querer fazer quando tiver autonomia?
O que poderia querer como um grande data center com supermodelos? O que ele pode querer fazer se estiver vinculado a uma conta de mídia social? Ou um e-mail, ou estar envolvido no desenvolvimento de medicamentos e assim por diante.
Esta questão pode ser investigada usando bots, vírus e uma variedade de casos estatísticos de vários cenários. Basta fazê-lo e preparar-se para o seu alcance, bem como identificar quaisquer pontos fracos ou obstáculos.
Dado que a AGI será inicialmente digital, quais são as exposições digitais que podem ter um impacto significativo na vida atual e onde devem existir barreiras para que os modelos de IA sejam desconectados?
É aceitável limitar alguns resultados recentes do chatbot, como o que eles podem responder, mas a segurança da IA excede esses limites.
Existem várias categorias de segurança, mas será difícil não brincar para saber, semelhante a um ganho de função tecnológico. A segurança da IA seria abordada em vários níveis de esforço, incluindo laboratórios, blocos e assim por diante.
A segurança definitiva da IA será investigar como a mente humana funciona, afirmando, exibindo e expandindo a vantagem bioquímica que o cérebro pode ter sobre as pastilhas de silício.