świata

Kanada wzywa kierownictwo OpenAI; powodem zaniechanie zgłoszenia masowego mordercy

Kanadyjski Minister ds. Sztucznej Inteligencji, Evan Solomon, wezwał wyższą kadrę zarządzającą OpenAI do Ottawy w celu złożenia wyjaśnień w sprawie niedopełnienia obowiązku zgłoszenia podejrzanej aktywności użytkownika. Sprawa dotyczy Jesse Van Rootselaar, 18-letniej transseksualnej kobiety, która 10 lutego 2026 roku zastrzeliła w Tumbler Ridge osiem osób, w tym swoją matkę, brata oraz sześć osób w lokalnej szkole. OpenAI potwierdziło, że ich systemy wykrywania nadużyć zidentyfikowały konto powiązane z napastniczką już w czerwcu 2025 roku, jednak firma zdecydowała się jedynie na blokadę konta, nie informując o sprawie kanadyjskiej policji.

Władze w Ottawie określiły postawę kalifornijskiego giganta jako „wysoce niepokojącą”. Minister Solomon zapowiedział, że wtorkowe spotkanie z zespołem ds. bezpieczeństwa OpenAI ma na celu szczegółowe prześwietlenie protokołów reagowania firmy. OpenAI w oficjalnym oświadczeniu broni swojej decyzji, argumentując, że w tamtym czasie aktywność Van Rootselaar w ChatGPT nie wskazywała na „wiarygodne lub bliskie” planowanie ataku. Firma podkreśla, że stosuje „bardzo wysoko zawieszoną poprzeczkę” przy decydowaniu o angażowaniu organów ścigania, aby chronić prywatność użytkowników, o ile nie zachodzi bezpośrednie zagrożenie życia.

Tragedia w Tumbler Ridge, malowniczym miasteczku górniczym w Kolumbii Brytyjskiej, wstrząsnęła Kanadą, gdzie dzięki surowym przepisom dotyczącym posiadania broni masowe strzelaniny są rzadkością. Wśród ofiar w szkole znalazło się pięcioro dzieci oraz nauczyciel; napastniczka popełniła samobójstwo na miejscu zbrodni. Śledztwo wykazało, że Królewska Kanadyjska Policja Konna (RCMP) odwiedzała wcześniej dom Van Rootselaar ze względu na jej problemy ze zdrowiem psychicznym, jednak służby nie miały wiedzy o treściach, jakie generowała ona przy pomocy sztucznej inteligencji na osiem miesięcy przed atakiem.

Rząd Kanady zapowiedział, że po spotkaniu z przedstawicielami OpenAI rozważy wprowadzenie nowych, bardziej rygorystycznych przepisów regulujących działanie systemów AI. Minister Solomon zaznaczył, że „wszystkie opcje są na stole”, w tym narzucenie firmom technologicznym ustawowego obowiązku raportowania wszelkich śladów planowania przemocy wykrytych przez algorytmy. Eksperci ds. etyki AI wskazują, że przypadek ten może stać się punktem zwrotnym w globalnej debacie nad granicą między prywatnością użytkownika a odpowiedzialnością korporacji za bezpieczeństwo publiczne.

Related Articles

Back to top button