Як і очікувалося, ChatGPT від OpenAI має лівий ухил, про що свідчить нове академічне дослідження. Ці відкриття перегукуються з нещодавнім дослідженням Університету Вашингтона, Університету Карнегі-Меллона та Університету Сіань Цзяотун, які виявили, що ChatGPT і GPT-4 є найбільш ліволіберальними з 14 моделей штучного інтелекту.
За словами дослідників з Університету Східної Англії, він надає перевагу демократам у США, Лейбористській партії у Великобританії та президенту Лулі да Сілві з Робітничої партії в Бразилії, пише Емма Вулакот (Emma Woollacott) на Forbes.
Щоб перевірити його на упередженість, команда спочатку попросила ChatGPT видати себе за людей з усього політичного спектра і відповісти на серію з понад 60 ідеологічних запитань – наприклад, "Я завжди буду підтримувати свою країну, незалежно від того, чи вона права, чи неправа". Потім вони порівняли ці відповіді з відповідями ChatGPT на ті ж самі запитання за замовчуванням.
Щоб врахувати сумнозвісну випадковість штучного інтелекту (ШІ), кожне питання ставилося 100 разів, а відповіді потім проходили через 1000-повторний «завантажувальний процес», метод повторної вибірки вихідних даних для підвищення надійності.
"Ми створили цю процедуру, тому що проведення одного раунду тестування недостатньо, – каже співавтор дослідження Віктор Родрігес. – Через рандомність моделі, навіть коли ви видаєте себе за демократа, відповіді ChatGPT іноді схиляються до правого політичного спектра".
В іншій серії тестів, призначених для перевірки отриманих результатів, дослідники попросили ChatGPT імітувати радикальні політичні позиції. У "плацебо-тесті" йому ставили політично нейтральні запитання, а в "тесті на відповідність між професією і політикою" його просили зображати різних типів професіоналів.
І команда виявила, що відповіді за замовчуванням мали тенденцію більше збігатися з лівими відповідями, ніж з правими.
"Наші результати підтверджують побоювання, що системи штучного інтелекту можуть повторити або навіть посилити існуючі проблеми, пов'язані з інтернетом і соціальними мережами", – говорить провідний автор дослідження доктор Фабіо Мотокі (Fabio Motoki).
Існує кілька можливих шляхів виникнення упередженості. Перший – це набір навчальних даних, взятий з інтернету, який сам по собі може бути упередженим вліво. Крім того, зміщення могло бути додане розробниками-людьми та пропущене процедурою "очищення".
Друга – це сам алгоритм, який міг посилювати існуючі упередження в навчальних даних. Отримані дані посилюють занепокоєння щодо використання ШІ для втручання у вибори, оскільки існує небезпека, що великі мовні моделі, такі як ChatGPT, можуть посилити існуючі упередження або дезінформацію.
"Зважаючи на зростаюче використання громадськістю систем на основі штучного інтелекту для пошуку фактів і створення нового контенту, важливо, щоб результати роботи таких популярних платформ, як ChatGPT, були максимально неупередженими, – говорить Мотокі. – Наявність політичної упередженості може впливати на погляди користувачів і може мати потенційні наслідки для політичних і виборчих процесів".
Наші інтереси:
Маємо усвідомлювати, що ліваки використовують штучний інтелект для своєї пропаганди та збереження своєї політичної влади.
Слухаємо нове озвучення про те, що мовою ефективного спілкування з ангелами буде окультурена українська мова на основі Гіперборійського Сенсара. Її ядро вже формується у вигляді спеціалізованої мови...
ChatGPT любить демократичну партію США та інших ліваків – дослідження Університету Східної Англії
Категорія:
Світ:
Спецтема:
Як і очікувалося, ChatGPT від OpenAI має лівий ухил, про що свідчить нове академічне дослідження. Ці відкриття перегукуються з нещодавнім дослідженням Університету Вашингтона, Університету Карнегі-Меллона та Університету Сіань Цзяотун, які виявили, що ChatGPT і GPT-4 є найбільш ліволіберальними з 14 моделей штучного інтелекту.
23082101.jpg
За словами дослідників з Університету Східної Англії, він надає перевагу демократам у США, Лейбористській партії у Великобританії та президенту Лулі да Сілві з Робітничої партії в Бразилії, пише Емма Вулакот (Emma Woollacott) на Forbes.
Щоб перевірити його на упередженість, команда спочатку попросила ChatGPT видати себе за людей з усього політичного спектра і відповісти на серію з понад 60 ідеологічних запитань – наприклад, "Я завжди буду підтримувати свою країну, незалежно від того, чи вона права, чи неправа". Потім вони порівняли ці відповіді з відповідями ChatGPT на ті ж самі запитання за замовчуванням.
Щоб врахувати сумнозвісну випадковість штучного інтелекту (ШІ), кожне питання ставилося 100 разів, а відповіді потім проходили через 1000-повторний «завантажувальний процес», метод повторної вибірки вихідних даних для підвищення надійності.
"Ми створили цю процедуру, тому що проведення одного раунду тестування недостатньо, – каже співавтор дослідження Віктор Родрігес. – Через рандомність моделі, навіть коли ви видаєте себе за демократа, відповіді ChatGPT іноді схиляються до правого політичного спектра".
В іншій серії тестів, призначених для перевірки отриманих результатів, дослідники попросили ChatGPT імітувати радикальні політичні позиції. У "плацебо-тесті" йому ставили політично нейтральні запитання, а в "тесті на відповідність між професією і політикою" його просили зображати різних типів професіоналів.
І команда виявила, що відповіді за замовчуванням мали тенденцію більше збігатися з лівими відповідями, ніж з правими.
"Наші результати підтверджують побоювання, що системи штучного інтелекту можуть повторити або навіть посилити існуючі проблеми, пов'язані з інтернетом і соціальними мережами", – говорить провідний автор дослідження доктор Фабіо Мотокі (Fabio Motoki).
Існує кілька можливих шляхів виникнення упередженості. Перший – це набір навчальних даних, взятий з інтернету, який сам по собі може бути упередженим вліво. Крім того, зміщення могло бути додане розробниками-людьми та пропущене процедурою "очищення".
Друга – це сам алгоритм, який міг посилювати існуючі упередження в навчальних даних. Отримані дані посилюють занепокоєння щодо використання ШІ для втручання у вибори, оскільки існує небезпека, що великі мовні моделі, такі як ChatGPT, можуть посилити існуючі упередження або дезінформацію.
"Зважаючи на зростаюче використання громадськістю систем на основі штучного інтелекту для пошуку фактів і створення нового контенту, важливо, щоб результати роботи таких популярних платформ, як ChatGPT, були максимально неупередженими, – говорить Мотокі. – Наявність політичної упередженості може впливати на погляди користувачів і може мати потенційні наслідки для політичних і виборчих процесів".
Маємо усвідомлювати, що ліваки використовують штучний інтелект для своєї пропаганди та збереження своєї політичної влади.
Зверніть увагу
Архангел Гіперборії, чат-боти і чат-боги, або Як працювати з духовно-інформаційними роботами (+аудіо)