По словам эксперта, мошенники могут использовать генеративные сети, связанные с картинками и голосом, чтобы создавать доказательства того, чего не было, – дипфейков. При этом, поскольку люди уже научились не доверять картинкам, мошенники начали создавать дипфейковые видео, которые отличить сложнее, указал Тушканов.
Он также отметил, что играет на руку мошенникам и интерес к нейросетям. Однако, указал эксперт, законодательно запрещать искусственный интеллект, как это сделали, в Италии, – не выход, передает РИА «Новости».
По словам Тушканова, следует не регулировать технологию, а правильно ее применять. Например, законодательно зафиксировать, чтобы людей предупреждали, что они говорят не с человеком, а с роботом, или подписывать сгенерированную картинку, чтобы не вводить людей в заблуждение.