Ainda não passou um mês desde que a OpenAI apresentou os seus Generative Pretrained Transformers (GPTs) e já se encontram no centro de uma controvérsia. A turbulência na empresa, com a demissão e subsequente recontratarão do CEO, Sam Altman, parece ter sido apenas o prelúdio para os desafios que a OpenAI enfrenta agora.
Os GPTs, que são chatbots baseados no ChatGPT, têm a particularidade de poderem ser personalizados pelos seus responsáveis. Estes podem adicionar conjuntos de dados e parametrizar a resposta aos prompts. No entanto, esta característica está a levantar questões sobre a privacidade dos dados utilizados para o treino destes chatbots.
Segundo uma reportagem da Wired, os GPTs podem ser mais indiscretos do que deveriam, comprometendo a privacidade dos criadores ou, mais precisamente, dos dados utilizados no processo de treino. Os utilizadores destes chatbots personalizados podem recorrer a técnicas que resultam na revelação de dados específicos utilizados na sua personalização.
Jiahao Yu, investigador em informática da Universidade Northwestern, sublinha a importância de levar a sério as preocupações sobre a privacidade derivadas da filtragem de dados. Mesmo que os dados não contenham informação confidencial, podem conter algum conhecimento que o designer não queira partilhar com outros.
Uma investigação realizada por uma equipa da Universidade Northwestern avaliou mais de 200 GPTs e os resultados são preocupantes. Os investigadores descrevem como “surpreendentemente simples” o acesso a estes dados, mesmo para utilizadores sem conhecimentos avançados na criação de prompts.
A OpenAI terá que tomar medidas rápidas para resolver este problema. Enquanto isso, aqueles que criaram os seus próprios GPTs deveriam rever os dados com que os alimentaram e, se necessário, desativá-los até terem a certeza de que estes problemas foram resolvidos.
A controvérsia em torno dos GPTs da OpenAI sublinha a importância da privacidade na era da inteligência artificial. A possibilidade de personalização destes chatbots, embora atraente, levanta questões sérias sobre a segurança dos dados utilizados no seu treino. A OpenAI, como qualquer outra empresa que lida com dados sensíveis, tem a responsabilidade de garantir a privacidade e segurança desses dados.
Na minha opinião, este incidente serve como um lembrete de que a inovação tecnológica deve sempre andar de mãos dadas com a ética e a privacidade. A OpenAI deve aprender com este incidente e implementar medidas rigorosas para proteger a privacidade dos dados. Além disso, os utilizadores de tecnologia devem estar sempre vigilantes e conscientes dos riscos associados à partilha dos seus dados.
Fonte: wired