ИЗПРАТИ НОВИНА
Новини
Спорт
Справочник
Обяви
Вход
close




ЗАРЕЖДАНЕ...
Начало
София
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Други
Кино и филми
Културни
Личности
Музика
Кулинарни
Защо Chat GPT 3.5 и 4 не могат да преминат теста на Тюринг?
Автор: Екип Sofia24.bg 10:03 / 20.12.2023Коментари (0)337
©
Тестът на Тюринг вече не е релевантен критерий за наличие на съзнателен изкуствен интелект. Той е създаден през 50-те години на миналия век и към онзи момент е оправдан, но в момента имаме нужда от ревизия на това какви са критериите за това един изкуствен интелект да бъде генерален, тоест като нас. Това каза футурологът доц. д-р Мариана Тодорова в предаването "Сценарий от бъдещето" на Радио "Фокус" с водещ Ива Дойчинова.

Алан Тюринг твърди, че ако изкуственият интелект може да заблуди човек, че общува с друг човек, той може да се счита за генерален. Критериите, върху които този тест се базира обаче, според много учени трябва да бъдат осъвременени и съобразени с интелигентността на съвременните машини. Според някои новият Тест на Тюринг трябва да е в състояние да издържи студентски изпит. "Ние видяхме, че ChatGPT 3.5 издържа изпити по право, по медицина, по счетоводство, така че това вече не е достатъчен критерий. Може би по-добрият вариант на тестване е дали изкуственият интелект може да функционира в някакъв момент от време като човек – да стане, да отиде до кафе машината, да си направи кафе, да прочете една новина, да я тълкува, да си постави цел и да я изпълни", поясни доц. Тодорова.

Тя разказа за експеримент, който провеждат учени от Калифорнийския университет. Те формират група от 650 човека и ги поставят в среда, в която има един оценител, двама човека, с които той общува, а "третият" елемент е изкуствен интелект. Целта е да се види кой от тези езикови модели ще премине Теста на Тюринг, т.е. ще успее да заблуди оценителяц че е човек. "ChatGPT 3 и 4 се провалят тотално, но не защото те не са добри в отговорите си, а просто защото ние вече имаме умствената нагласа какво да очакваме. Когато виждаме една изключително добре структурирана информация по определен шаблон, ние много ясно разбираме, че това е ChatGPT 3 или 4. Чатботът, който успява да заблуди хората, е ELIZA, съществуващ още от 1964 г. ( и заради, когото белгиец се самоуби преди няколко месеца). Това се случва не защото той е съвършен, а защото напротив, не е политически коректен, понякога е много груб и  греши много, затова участниците в експеримента са на мнение, че ИИ не би могъл да бърка чак толкова", разказа доц. Тодорова.







Зареждане! Моля, изчакайте ...

Все още няма коментари към статията. Бъди първият, който ще напише коментар!

Още новини от Любопитни новини:

ИЗПРАТИ НОВИНА
« Август 2024 г. »
пон
вто
сря
чтв
пет
съб
нед
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Виж още:
Актуални теми
В столичния кв. "Младост 1" откриха труп на жена, има следи от насилие
ТВ и шоу сезон 2024/2025 г.
Риск от чума по дребните преживни животни
51-ото Народно събрание
Зима 2024/2025 г.
назад 1 2 3 4 5 напред
Абонамент
Абонирайте се за mail бюлетина ни !
Абонирайте се за нашия e-mail и ще получавате на личната си поща информация за случващото се в София и региона.
e-mail:
Анкета
Трябва ли да се дадат повече права на районните кметове?
Да
Не
Не мога да преценя
РАЗДЕЛИ:
Новини
Спорт
Справочник
Обяви
Потребители
ГРАДОВЕ:
София
Пловдив
Варна
Бургас
Русе
Благоевград
ЗА НАС:

За контакти:

тел.: 0700 45 024

novini@sofia24.bg

За реклама:

Тарифи (виж)
Договори избори 2024

тел.: 0887 45 24 24

office@mg24.bg

Екип
Правила
Софиянци във facebook
RSS за новините
Футбол на живо по телевизията