ИЗПРАТИ НОВИНА
Новини
Спорт
Справочник
Обяви
Вход
close




ЗАРЕЖДАНЕ...
Начало
София
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Други
Институции
Криминални
Общество
Бизнес
Лекар и телевизионен водещ са използвани за измамна реклама на лекарство
Автор: Цвети Тончева 22:06 / 17.01.2024Коментари (0)240
©
Известен лекар и водещ на националната телевизия бяха използвани за измамна реклама на нерегистрирано лекарство, съобщава БНТ. Как се създава фалшивия образ и как можем да го разпознаем?

Създаването е все по-лесно, фалшивите образи са все по-перфектни двойници, а разпознаването е все по-трудно. Щетите, обаче вече се изчисляват на милиарди. Предполага се, че само от инвестиционни измами чрез кол центрове, за които са ползвани фалшиви образи на известни лица, контролираните от Гал Барак и Илан Цоря престъпни групи, през последната година са реализирали над 40 милиарда евро чиста печалба. Но, много други измами се правят с фалшиви образи на известни бизнесмени, спортисти, лекари и дори журналисти. Сред хитовете има дори реклами на измамни лекарства.

Възможностите на изкуствения интелект и социалните мрежи се оказват златна мина за измамниците. Така от едно участие в телевизионно предаване - доц. Спас Спасков и водещият на сутрешния блок Симеон Иванов се оказаха лица, които предлагат представяно като "вълшебно", но иначе абсолютно неефективно лекарство.

"Беше пуснат такъв запис от реално предаване, но със сменен текст. Разбира се и начинът на представянето беше фалшив. Бях представен като известен хирург, който дава съвети за ставни заболявания, нещо което не пасва с моята подготовка и това, което съм аз", каза доц. д-р Спас Спасков.

Фалшивата публикация беше докладвана от обществената телевизия и свалена.

"Повтарям - и аз, и д-р Спас Спасков не рекламираме такива продукти", заяви Симеон Иванов, журналист в БНТ.

Случаят с колежката Надя Обретенова, обаче е различен. За създаването на този образ с изкуствен интелект, водещата на "Още от деня" Надя Обретенова с цел експеримент е дала своето съгласие на екип експерти по киберсигурност.

"Но реално това не е тя. Това е копие, което сме тренирали в продължение на две седмици, за да направим досущ нейния образ и да бъде почти неразличим", обясни Красимир Коцев, експерт по киберсигурност.

Експериментът с Надя Обретенова е направен като разговор в реално време във Вайбър, като пред камерата в приложението е бил застанал мъж с перука.

"Абсолютно, като тук има два фактора. От една страна може да се промени гласа на човек, така че когато ви се обадят по телефона, по вайбър, уотс ъп или друга социална мрежа да чуете всъщност друг глас. И да ви поканят на среща в "Гугъл мийт", в "Тиймс" или в друг видеоканал, в който всъщност да видите друго лице, дийп фейк образ на легитимно лице от реалния живот.

БНТ: Тъй като съм голям почитател на Мбапе, аз мога ли да стана Мбапе в разговорите, които водя във Вайбър?

- Абсолютно. И не само това, то всъщност може да има поне още 50 човека, които да направят същото нещо и да се клонират и да придобият неговия образ", каза Красимир Коцев, експерт по киберсигурност.

Все повече хора вярват на фалшивите образи създадени с изкуствен интелект и така той се превръща в перфектното оръжие на хибридната война.

"Така е ние всъщност това нещо го видяхме и по време на войната между Украйна и Русия. Имаше фалшиви видеа и с Володимир Зеленски и с Владимир Путин. Владимир Путин или неговата фалшива версия излезе публично и обяви мир на Украйна. В първите часове много голяма част от обществото се заблуди от това нещо", каза експертът по киберсигурност Красимир Коцев.

"Няма механизъм в момента, който да предотврати това нещо да се случва на такова ниво, за съжаление", смята Борис Гончаров, експерт по киберсигурност.

Има няколко детайла, по които можем да разпознаем фалшивия образ, създаден с изкуствен интелект.

"Първо по самите черти на лицето. Много често при изкуствените модели погледа не гледа напред, направо към нас или към камерата, а всъщност двете очи се местят в малко асинхрон", обясни Красимир Коцев, експерт по киберсигурност.

Образите обаче стават все по-перфектни. Технологичните гиганти вече разработват приложения, които са достъпни безплатно и разпознават фалшивите образи на изкуствения интелект.

Какъв е отговорът на технологичните гиганти?

Ако разчитаме само на технологичните гиганти, ще станем пасивни свидетели на ситуацията в която изкуствения интелект ще се бори с изкуствен интелект. Всъщност жертви на изкуствения интелект само преди три дни станаха флагманите на създаването му Илън Мъск и Марк Зукърбърг. Буквално за секунди из целия свят се разпространиха фалшиви снимки от сватбата на двамата, а образите им са наистина перфектни. Т.е. в ерата на глобалната информация журналистите трябва да имаме все по-критично мислене и чрез контролни въпроси към нашия събеседник да проверяваме дали от другата страна на камерата и микрофона не стои фалшива личност.







Зареждане! Моля, изчакайте ...

Все още няма коментари към статията. Бъди първият, който ще напише коментар!

Още новини от Национални новини:

ИЗПРАТИ НОВИНА
« Май 2024 г. »
пон
вто
сря
чтв
пет
съб
нед
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Виж още:
Актуални теми
Зима 2024/2025 г.
Зима 2023/2024 г.
51-ото Народно събрание
ТВ и шоу сезон 2024/2025 г.
В столичния кв. "Младост 1" откриха труп на жена, има следи от насилие
назад 1 2 3 4 5 напред
Абонамент
Абонирайте се за mail бюлетина ни !
Абонирайте се за нашия e-mail и ще получавате на личната си поща информация за случващото се в София и региона.
e-mail:
Анкета
Трябва ли да се дадат повече права на районните кметове?
Да
Не
Не мога да преценя
РАЗДЕЛИ:
Новини
Спорт
Справочник
Обяви
Потребители
ГРАДОВЕ:
София
Пловдив
Варна
Бургас
Русе
Благоевград
ЗА НАС:

За контакти:

тел.: 0700 45 024

novini@sofia24.bg

За реклама:

Тарифи (виж)
Договори избори 2024

тел.: 0887 45 24 24

office@mg24.bg

Екип
Правила
Софиянци във facebook
RSS за новините
Футбол на живо по телевизията