Після початкового падіння трафіку на 9,7% у червні ChatGPT спостерігав спад другий місяць поспіль: його трафік впав ще на 9,6% у липні, згідно з останнім опитуванням інструмента аналітики веб-сайтів SimilarWeb.
SimilarWeb припускає, що причиною зниження кількості відвідувань ChatGPT можуть бути студентські канікули. Але крім того, схоже, що все більше і більше компаній також почали вирішувати відключати ChatGPT, не лише включаючи Samsung і Apple, але й такі компанії, як JPMorgan Chase, Deutsche Bank, Verizon і Amazon, також обмежили своїх співробітників у використанні ChatGPT.
А цього тижня BlackBerry опублікувала нове дослідження:
▶ 75% організацій у всьому світі наразі розглядають можливість заборони використання ChatGPT та інших генеративних програм ШІ на робочому місці.
▶ 61% компаній, які розгортають або розглядають заборону ChatGPT, кажуть, що вимкнення ChatGPT буде довгостроковим або постійним.
**Чому компанії хочуть відключити ChatGPT? **
Як повідомляється в офіційному блозі BlackBerry, дані дослідження взяті з опитування майже 2000 осіб, які приймають рішення в ІТ, у Сполучених Штатах, Канаді, Великій Британії, Франції, Німеччині, Нідерландах, Японії та Австралії.
Результати опитування показують, що заборона на ChatGPT і генеративний штучний інтелект здебільшого обумовлена технічним керівництвом компанії, і генеральний директор майже половини компаній також відіграє провідну роль:
▶ Фінансовий директор (головний фінансовий директор) / фінанси - 36%
▶ HR (людські ресурси) - 32%
Є багато причин проти використання ChatGPT на робочому місці. Близько 67% респондентів вважають, що проблеми з безпекою даних і конфіденційністю, які може спричинити ChatGPT, є найбільшими ризиками, а потім ризик для репутації компанії, який також є одна з причин, чому 57% людей вважають вимкнути ChatGPT.
Фактично, ще в березні цього року BlackBerry проконсультувалася з кількома експертами з безпеки всередині компанії на тему «Чи безпечно для організацій використовувати ChatGPT?», щоб дізнатися, на що кожна організація повинна звернути увагу під час використання ChatGPT або подібних інструментів, як правило. кажучи, його можна розділити на три аспекти:
(1) Витік даних і проблеми безпеки ШІ-чат-ботів
Якщо в ChatGPT буде введено конфіденційну інформацію третьої сторони або внутрішню інформацію компанії, ця інформація стане частиною навчальних даних і може бути передана іншим, хто ставить відповідні запитання, що призведе до витоку даних. Будь-яке несанкціоноване розкриття конфіденційної інформації ChatGPT може порушити корпоративну політику безпеки.
(2) Юридичні міркування щодо використання чат-ботів ШІ
Якщо безпеку ChatGPT порушено, вміст, який мав бути захищений контрактом або законом, може бути скомпрометований і звинувачений у організації, що вплине на репутацію компанії. Крім того, якщо ChatGPT використовується для створення коду, важко визначити, хто є власником авторських прав; використання ChatGPT для створення захищених авторським правом письмових матеріалів, таких як авторизовані матеріали з відкритим кодом, також спричинить проблеми з авторським правом і навіть може призвести до порушення компанією ліцензія OSS (програмне забезпечення з відкритим кодом).
Також важливо: в умовах використання зазначено, що ChatGPT не можна використовувати для розробки будь-якого іншого ШІ. Якщо ваша компанія також працює у сфері ШІ, використання ChatGPT може поставити під загрозу майбутній розвиток ШІ в компанії.
(3) Зауваження щодо конфіденційності для чат-ботів ШІ
ChatGPT попереджає користувачів не надавати та не вводити конфіденційну особисту інформацію, таку як імена чи адреси електронної пошти. Надання будь-яких персональних даних системам, що генерують штучний інтелект, може бути використано для інших цілей, що призведе до неправильного використання та шкоди репутації, а також потенційно порушить зобов’язання організації щодо конфіденційності перед співробітниками, клієнтами та партнерами.
Незважаючи на ризики, пов’язані з використанням ChatGPT, і багато осіб, які приймають рішення в ІТ, вважають за краще перешкоджати широкому використанню цієї нової технології, вони також визнають позитивний вплив генеративних програм ШІ на робочому місці: 55% вважають, що ШІ може допомогти підвищити продуктивність, а 52% кажуть, що це сприяє інноваціям, а 51% вважають, що це сприяє розвитку творчості. Крім того, більшість респондентів (81%) також підтримують використання генеративних інструментів ШІ для захисту кібербезпеки.
Рекомендується «обережний і агресивний» підхід
Мало того, дані дослідження BlackBerry також показують, що хоча 80% керівників ІТ вважають, що підприємства мають право контролювати програми, які працівники використовують у бізнес-цілях, але в той же час 74% з них вважають цю заборону " недолік" для підприємств та оргтехніки. надмірний контроль".
З цією метою значна кількість опитаних ІТ-директорів і CISO (62%) вказали, що їхні компанії звернулися до платформ уніфікованого керування кінцевими точками (UEM), які забезпечують детальний контроль над тим, які програми можуть підключатися до корпоративного середовища. Таким чином, співробітники ' приватні дані або програми відокремлені та ізольовані, забезпечуючи при цьому підтримку корпоративної безпеки.
Виходячи з наведених вище переваг і недоліків використання генеративного штучного інтелекту, такого як ChatGPT, Шишир Сінгх, головний технічний директор відділу кібербезпеки в BlackBerry, закликав компанії та організації прийняти «обережне та проактивне» ставлення: «Заборонити використання генеративних програм ШІ в робоче місце може означати, що багато потенційних ділових інтересів придушено».
Шишир Сінгх підкреслив, що в міру того, як майбутня платформа ШІ розвивається та відповідні правила набувають чинності, компанії можуть прийняти політику гнучкості. Головне — мати правильні інструменти для моніторингу генеративних програм ШІ, які використовуються на робочому місці. Моніторинг видимості та управління.
**Користувач мережі: Оскільки ви не розумієте ШІ, ви хочете відмовитися від ШІ? **
Щодо звіту розслідування, наданого BlackBerry, першою реакцією багатьох користувачів мережі було «Чи живий BlackBerry?» Потім почалися бурхливі дискусії:
▶ «Я розумію заборону розголошувати конфіденційні дані в цих чат-ботах, але загальна заборона здається занадто великою?»
▶ «Якби я керував компанією, я б також заборонив ці публічні моделі. Зрештою, ризик крадіжки даних занадто великий, особливо при використанні плагінів та інших речей».
▶"Моя компанія також швидко наклала заборону, але це не повна заборона. Я просто не можу ввести будь-яку ідентифікаційну чи конфіденційну інформацію в запит. Для загального вмісту компанія не має обмежень".
На додаток до обговорення заборони на використання ChatGPT, деякі користувачі мережі вважають, що основна причина рішення компанії полягає не в тому, що технологія AI небезпечна, а в тому, що «люди не розуміють, як правильно використовувати інструменти»:
▶ "Це має сенс, але справа не в тому, що технології небезпечні, а в тому, що люди не розуміють, як правильно використовувати інструменти. Як і в більшості випадків у нашій історії, ми боїмося того, чого не розуміємо — загалом це означає, що доки ми не з’ясувати, як це зробити, ми лише спробуємо викинути це, як у цьому випадку з генеративним ШІ».
Отже, чи дозволяє ваша компанія своїм співробітникам використовувати генеративні інструменти ШІ? Що ви думаєте про заборону бізнесом генеративних інструментів ШІ?
Довідкове посилання:
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
ChatGPT «заблокують» 75% світових підприємств? !
Організація | Чжен Ліюань Лістинг | CSDN
Після початкового падіння трафіку на 9,7% у червні ChatGPT спостерігав спад другий місяць поспіль: його трафік впав ще на 9,6% у липні, згідно з останнім опитуванням інструмента аналітики веб-сайтів SimilarWeb.
А цього тижня BlackBerry опублікувала нове дослідження:
▶ 75% організацій у всьому світі наразі розглядають можливість заборони використання ChatGPT та інших генеративних програм ШІ на робочому місці.
▶ 61% компаній, які розгортають або розглядають заборону ChatGPT, кажуть, що вимкнення ChatGPT буде довгостроковим або постійним.
**Чому компанії хочуть відключити ChatGPT? **
Як повідомляється в офіційному блозі BlackBerry, дані дослідження взяті з опитування майже 2000 осіб, які приймають рішення в ІТ, у Сполучених Штатах, Канаді, Великій Британії, Франції, Німеччині, Нідерландах, Японії та Австралії.
Результати опитування показують, що заборона на ChatGPT і генеративний штучний інтелект здебільшого обумовлена технічним керівництвом компанії, і генеральний директор майже половини компаній також відіграє провідну роль:
▶ CIO (головний інформаційний директор) / CTO (головний технічний директор) / CSO (головний спеціаліст з безпеки) / IT——72%
▶ CEO (головний виконавчий директор) - 48%
▶ Менеджери з дотримання законодавства - 40%
▶ Фінансовий директор (головний фінансовий директор) / фінанси - 36%
▶ HR (людські ресурси) - 32%
Є багато причин проти використання ChatGPT на робочому місці. Близько 67% респондентів вважають, що проблеми з безпекою даних і конфіденційністю, які може спричинити ChatGPT, є найбільшими ризиками, а потім ризик для репутації компанії, який також є одна з причин, чому 57% людей вважають вимкнути ChatGPT.
Фактично, ще в березні цього року BlackBerry проконсультувалася з кількома експертами з безпеки всередині компанії на тему «Чи безпечно для організацій використовувати ChatGPT?», щоб дізнатися, на що кожна організація повинна звернути увагу під час використання ChatGPT або подібних інструментів, як правило. кажучи, його можна розділити на три аспекти:
(1) Витік даних і проблеми безпеки ШІ-чат-ботів
Якщо в ChatGPT буде введено конфіденційну інформацію третьої сторони або внутрішню інформацію компанії, ця інформація стане частиною навчальних даних і може бути передана іншим, хто ставить відповідні запитання, що призведе до витоку даних. Будь-яке несанкціоноване розкриття конфіденційної інформації ChatGPT може порушити корпоративну політику безпеки.
(2) Юридичні міркування щодо використання чат-ботів ШІ
Якщо безпеку ChatGPT порушено, вміст, який мав бути захищений контрактом або законом, може бути скомпрометований і звинувачений у організації, що вплине на репутацію компанії. Крім того, якщо ChatGPT використовується для створення коду, важко визначити, хто є власником авторських прав; використання ChatGPT для створення захищених авторським правом письмових матеріалів, таких як авторизовані матеріали з відкритим кодом, також спричинить проблеми з авторським правом і навіть може призвести до порушення компанією ліцензія OSS (програмне забезпечення з відкритим кодом).
Також важливо: в умовах використання зазначено, що ChatGPT не можна використовувати для розробки будь-якого іншого ШІ. Якщо ваша компанія також працює у сфері ШІ, використання ChatGPT може поставити під загрозу майбутній розвиток ШІ в компанії.
(3) Зауваження щодо конфіденційності для чат-ботів ШІ
ChatGPT попереджає користувачів не надавати та не вводити конфіденційну особисту інформацію, таку як імена чи адреси електронної пошти. Надання будь-яких персональних даних системам, що генерують штучний інтелект, може бути використано для інших цілей, що призведе до неправильного використання та шкоди репутації, а також потенційно порушить зобов’язання організації щодо конфіденційності перед співробітниками, клієнтами та партнерами.
Незважаючи на ризики, пов’язані з використанням ChatGPT, і багато осіб, які приймають рішення в ІТ, вважають за краще перешкоджати широкому використанню цієї нової технології, вони також визнають позитивний вплив генеративних програм ШІ на робочому місці: 55% вважають, що ШІ може допомогти підвищити продуктивність, а 52% кажуть, що це сприяє інноваціям, а 51% вважають, що це сприяє розвитку творчості. Крім того, більшість респондентів (81%) також підтримують використання генеративних інструментів ШІ для захисту кібербезпеки.
Рекомендується «обережний і агресивний» підхід
Мало того, дані дослідження BlackBerry також показують, що хоча 80% керівників ІТ вважають, що підприємства мають право контролювати програми, які працівники використовують у бізнес-цілях, але в той же час 74% з них вважають цю заборону " недолік" для підприємств та оргтехніки. надмірний контроль".
З цією метою значна кількість опитаних ІТ-директорів і CISO (62%) вказали, що їхні компанії звернулися до платформ уніфікованого керування кінцевими точками (UEM), які забезпечують детальний контроль над тим, які програми можуть підключатися до корпоративного середовища. Таким чином, співробітники ' приватні дані або програми відокремлені та ізольовані, забезпечуючи при цьому підтримку корпоративної безпеки.
Виходячи з наведених вище переваг і недоліків використання генеративного штучного інтелекту, такого як ChatGPT, Шишир Сінгх, головний технічний директор відділу кібербезпеки в BlackBerry, закликав компанії та організації прийняти «обережне та проактивне» ставлення: «Заборонити використання генеративних програм ШІ в робоче місце може означати, що багато потенційних ділових інтересів придушено».
Шишир Сінгх підкреслив, що в міру того, як майбутня платформа ШІ розвивається та відповідні правила набувають чинності, компанії можуть прийняти політику гнучкості. Головне — мати правильні інструменти для моніторингу генеративних програм ШІ, які використовуються на робочому місці. Моніторинг видимості та управління.
**Користувач мережі: Оскільки ви не розумієте ШІ, ви хочете відмовитися від ШІ? **
Щодо звіту розслідування, наданого BlackBerry, першою реакцією багатьох користувачів мережі було «Чи живий BlackBerry?» Потім почалися бурхливі дискусії:
▶ «Я розумію заборону розголошувати конфіденційні дані в цих чат-ботах, але загальна заборона здається занадто великою?»
▶ «Якби я керував компанією, я б також заборонив ці публічні моделі. Зрештою, ризик крадіжки даних занадто великий, особливо при використанні плагінів та інших речей».
▶"Моя компанія також швидко наклала заборону, але це не повна заборона. Я просто не можу ввести будь-яку ідентифікаційну чи конфіденційну інформацію в запит. Для загального вмісту компанія не має обмежень".
На додаток до обговорення заборони на використання ChatGPT, деякі користувачі мережі вважають, що основна причина рішення компанії полягає не в тому, що технологія AI небезпечна, а в тому, що «люди не розуміють, як правильно використовувати інструменти»:
▶ "Це має сенс, але справа не в тому, що технології небезпечні, а в тому, що люди не розуміють, як правильно використовувати інструменти. Як і в більшості випадків у нашій історії, ми боїмося того, чого не розуміємо — загалом це означає, що доки ми не з’ясувати, як це зробити, ми лише спробуємо викинути це, як у цьому випадку з генеративним ШІ».
Отже, чи дозволяє ваша компанія своїм співробітникам використовувати генеративні інструменти ШІ? Що ви думаєте про заборону бізнесом генеративних інструментів ШІ?
Довідкове посилання: