Embora sejam considerados um assistente pessoal, as IAs possuem um tipo de trava de segurança para evitar responder perguntas extremas – como instruções para crimes, por exemplo. Contudo, um time de pesquisadores da Cisco encontrou uma forma de burlar a proteção desses chatbots, e isso pode ser bem perigoso.
Confira:
Por outro lado, em um contexto corporativo, por exemplo, criminosos poderiam utilizar métodos análogos para obter informações sigilosas. Como muitas companhias usam um chatbot com o mesmo tipo de algoritmo, seja do Google, da OpenAI, ou da Microsoft, as IAs pode acabar escrevendo mais do que deveriam.
Para mais informações sobre segurança e acesso indevido em inteligências artificiais, continue ligado no site do TecMundo.