Inżynier Google wyjawił skrywane tajemnice firmy?

Ten news przeczytasz w minutę

Google zwolnił jednego ze swoich inżynierów w ostatni piątek, ponad miesiąc po tym, jak zgłosił obawy etyczne dotyczące sposobu, w jaki firma testuje chatbota ze sztuczną inteligencją. Jego zdaniem osiągnął on świadomość.

Blake Lemoine, inżynier oprogramowania dla Google, twierdził, że technologia konwersacyjna o nazwie LaMDA osiągnęła poziom świadomości.

Google's New Meena chatbot, Supersedes Existing AI-Assistants

Google jest jednym z liderów innowacyjnych technologii sztucznej inteligencji, do których należy LaMDA, czyli „model języka dla aplikacji dialogowych”. Taka technologia reaguje na pisemne podpowiedzi. najdując wzorce i przewidując sekwencje słów z dużych fragmentów tekstu – a wyniki mogą być niepokojące dla ludzi.

Rzecznik Google, Chris Pappas, powiedział, że Lemoine, starszy inżynier oprogramowania w organizacji Responsible AI, „postanowił uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach”.

Firma, która zaprzecza, że ​​jej model językowy chatbota jest świadomy, w czerwcu wysłała Lemoine na płatny urlop z w wypowiedzeniem. Lemoine potwierdził swoje zwolnienie w wiadomości tekstowej w piątek i powiedział, że spotyka się z prawnikami, aby przeanalizować swoje opcje. 

Na zdjęciu Blake Lemoine

Lemoine wywołał w zeszłym miesiącu poruszenie, kiedy powiedział The Washington Post, że wierzy, iż Google Language Model for Dialogue Applications (LaMDA) jest świadomy – wyzwalając obawy, że sztuczna inteligencja zbliża się do dystopijnego filmu science-fiction i ożywionej debaty na temat tego, czy program komputerowy może naprawdę mieć duszę. Jego zawieszenie doprowadziło również do powstania teorii spiskowych na temat tego, czy było to częścią tuszowania przez Google.

Pożegnaj się z udostępnianiem haseł na Netflix i przywitaj się z reklamami

Twierdzenie Lemoina, że LaMDA jest świadomy, zostało skrytykowane przez firmę i wielu innych ekspertów AI, którzy twierdzą, że tego typu chatboty — oprogramowanie symulujące rozmowę tekstową z innym człowiekiem, często używane do obsługi klienta — nie są wystarczająco zaawansowane, aby być świadomym.

Jeśli pracownik podziela obawy dotyczące naszej pracy, tak jak zrobił to Blake, dokładnie je przeanalizujemy” – powiedział Rzecznik Google, Chris Pappas. Znaleźliśmy twierdzenia Blake’a, że ​​LaMDA ma świadomość, że są całkowicie bezpodstawne i pracowaliśmy nad wyjaśnieniem tego z nim przez wiele miesięcy”.

 

 

 

Możliwość dodawania komentarzy nie jest dostępna.

error: Treści MENSIDER.COM są chronione.