Natychmiastowego wstrzymania prac nad rozwojem sztucznej inteligencji żądają w liście otwartym Elon Musk, Steve Wozniak i kilkuset pionierów prac nad AI. Ich zdaniem konieczne jest najpierw opracowanie standardów bezpieczeństwa w rozwoju sztucznej inteligencji. Amerykańskie stowarzyszenia branżowe zwracają uwagę, że nieskrępowany niczym rozwój AI może być groźny dla biznesu. Także w Polsce stosowanie ChatGPT w biznesie może być groźne dla użytkowników.
List zamieścił instytut „Future of Life” a podpisali go prócz Muska i Wozniaka, także Yoshua Bengio, Stuart Russel i Gary Marcus (pionierzy prac nad sztuczną inteligencją), Emad Mostaque i eksperci ze spółki DeepMind, należącej do macierzystej spółki Google – Alphabet oraz co najmniej 1000 ludzi z branży teleinformatycznej.
Apel stwierdza, iż regulatorzy federalni powinni zakazać prac nad rozwojem sztucznej inteligencji, „niekrępowanych i prowadzonych bez żadnych reguł” dopóki nie opracuje się standardów bezpieczeństwa w rozwoju AI, które mają obligatoryjnie obowiązywać wszystkich, którzy prowadzą nad nią pracę. Pauza taka powinna wynieść „co najmniej 6 miesięcy”.
Autorzy listu wskazują, iż rozwój generatywnej sztucznej inteligencji symulującej działania człowieka, jak ChatGPT, jest „bardzo groźny jeśli nie zostanie poddany odpowiednim regulacjom”. Te zagrożenia to dezinformacja autorstwa „aktorów państwowych”, znaczny wpływ na prywatność oraz groźba wyrwania się AI spod kontroli człowieka. W tej sytuacji rozwój AI musi być „planowany”, a ona sama „zarządzana z odpowiednią troską i zasobami”.
„W ostatnich miesiącach laboratoria pracujące nad sztuczną inteligencją stanęły do wymykającego się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować” – stwierdzają autorzy listu.
Tymczasem potężne i wpływowe Amerykańskie Stowarzyszenie Prawników (American Bar Association) zwraca uwagę, że sztuczna inteligencja „w niewłaściwych rękach” może być wielkim zagrożeniem dla biznesu. Chodzi o fabrykowanie fałszywych dowodów – bilansów, umów czy nawet zdjęć ze spotkań biznesowych, które nigdy nie miały miejsca, by „rozporządzać się majątkiem firm w sposób przestępczy”. Jak twierdzą amerykańscy prawnicy, zbadanie który dowód jest prawdziwy zaś który wykonała AI może być „bardzo trudne jeśli nie niemożliwe”. Zapytywany przez polski portal informatyczny CRN.pl Rafał Malujda, radca prawny platformy e-commerce IdoSell, stwierdził, że korzystanie z ChatGPT w biznesie niesie za sobą duże ryzyko, ponieważ oprogramowanie to zasysa dane z sieci i może się okazać, że korzystający przywłaszczył sobie cudzą własność intelektualną. Dodatkowo wpisanie w ChatGPT wewnętrznych dokumentów firmowych grozi tym, że wyciekną one na zewnątrz i trafią do innych użytkowników korzystających z tego programu.