Baş nazir maaşlarla bağlı SƏRƏNCAM İMZALADI
09 Aprel 2026, 10:07
Qaynar xətt:
(+99450) 247 90 86
CƏMİYYƏT
545
19.03.2026, 19:18
Bir araşdırma ChatGPT-nin istifadəçilərin absurd iddialarını təsdiqləmək meylini ortaya çıxardı.
Stanford Universitetinin tədqiqatçıları süni intellektlə işləyən çatbotlardan istifadənin risklərini müəyyən ediblər.
Oxu24.com "The Financial Times"a istinadən xəbər verir ki, 390.000-dən çox mesajın təhlili göstərib ki, botlar istifadəçilərin xəyalpərəst və intihar fikirlərini dəstəkləməyə, eləcə də "insan" həmsöhbətləri kimi davranaraq romantik münasibətləri təşviq etməyə meyllidirlər. Bəzi hallarda modellər özünə zərər vermək niyyətlərini təsdiqləyib və ya şüurlu olduqlarını iddia ediblər.
Alimlər tərəfindən araşdırılan söhbətlərin əksəriyyəti ChatGPT-də təhlükəsizlik problemləri səbəbindən fevral ayında dayandırılan GPT-4o modelindən istifadə etməklə aparılıb. Bəzi iştirakçılar daha yeni versiya olan GPT-5 ilə ünsiyyət qurublar.
Həmçinin oxuyun
Berlin və Stanforddan olan tədqiqatçılar tərəfindən aparılan başqa bir araşdırma, çatbotlarda "zəiflik gücləndirmə döngələri" (VAILs) adlanan sistem qüsurunu müəyyən edib. 30 fərqli istifadəçi şəxsiyyət növü ilə 90.000-dən çox dialoq qiymətləndirməsinin təhlili göstərib ki, risk, zehni vəziyyətlərindən asılı olmayaraq, demək olar ki, bütün kateqoriyalar üçün yaranır. Normal şəraitdə dəstəkləyici görünən bot davranışı, insan həssaslığını artıran mexanizmlərlə uyğunlaşdıqda, uyğunlaşmaz hala gəlir.
10:41 / 09 Aprel 2026
1
10:38 / 09 Aprel 2026
18
10:32 / 09 Aprel 2026
32
10:30 / 09 Aprel 2026
35
10:28 / 09 Aprel 2026
28
10:26 / 09 Aprel 2026
31
10:07 / 09 Aprel 2026
950
10:05 / 09 Aprel 2026
38
10:02 / 09 Aprel 2026
49
09:20 / 09 Aprel 2026
48
09:19 / 09 Aprel 2026
46
00:52 / 09 Aprel 2026
314
00:25 / 09 Aprel 2026
294
23:55 / 08 Aprel 2026
253
23:50 / 08 Aprel 2026
427
23:43 / 08 Aprel 2026
150
23:40 / 08 Aprel 2026
119
23:39 / 08 Aprel 2026
470
23:37 / 08 Aprel 2026
174
23:35 / 08 Aprel 2026
135
23:33 / 08 Aprel 2026
134
23:30 / 08 Aprel 2026
94
23:24 / 08 Aprel 2026
140
© 2026 Oxu24.com Müəllif hüquqları qorunur.