Гугл обеспокоен использованием чат-ботов в дочерней Alphabet. Под подозрением даже собственный Bard. Впрочем, остальному миру ИИ активно втюхивается. Гугл посоветовал сотрудникам не вводить собственные конфиденциальные данные в чат-боты. Политика объясняется безопасностью, пишет
xrust. Ведь тестировщики ИИ выявили удивительную вещь – плоды обучения иногда используются Bard и ChatGPT. Другими словами, настраивая чат-бот путем использования собственных жизненных фактов, вы можете сделать их достоянием «вселенной». Однако, самое неприятное – предупреждение относительно бездумного применения программ, генерируемых чат-ботами. Их следует тщательно анализировать. Они, конечно, помогают программистам, но требуют особого внимания. К сожалению Гугл, предупреждая сотрудников, не допустил утечки фактов в интернет. Настораживая персонал, Google стремится навредит бизнесу программным обеспечением. Ведь скомпрометировав себя, корпорация потеряет многомиллиардные инвестиции, которые уйдут OpenAI и