Facebook обяви в четвъртък, че софтуерът за изкуствен интелект вече открива 94,7% от речта на омразата, която се премахва от платформата му.
Майк Шрьопфер, главен технологичен директор на Facebook, разкри цифрата в публикация в блог, добавяйки, че тя е повече от 80,5% преди година и само 24% през 2017 г. Тази цифра е споделена и в последния доклад на Facebook за прилагане на стандартите.
Компаниите в социалните медии като Facebook, Twitter и TikTok са критикувани за това, че не успяват да контролират речта на омразата, като расови клевети и религиозни атаки, извън своите платформи.
Компаниите наемат хиляди модератори на съдържание по целия свят, за да контролират публикациите, снимките и видеоклиповете, които се споделят на техните платформи.
Над 200 модератори на Facebook заявиха в отворено писмо до главния изпълнителен директор Марк Зукърбърг, че компанията е рискувала живота им, като ги е принудила да се върнат в офиса по време на пандемията на коронавируса.
Но само хората не са достатъчни и технологичните гиганти стават все по-зависими от област на изкуствения интелект /AI/, известна като машинно обучение, при което алгоритмите се подобряват автоматично чрез опит.
„Основен акцент в усилията за изкуствен интелект на Facebook е внедряването на авангардна технология за машинно обучение, за да се защитят хората от вредно съдържание“, каза Шрьопфер. „С милиарди хора, използващи нашите платформи, ние разчитаме на AI да мащабира работата си по преглед на съдържанието и да автоматизира решенията, когато е възможно“, добави той. „Нашата цел е да забележим речта на омразата, дезинформацията и други форми на нарушаващо политиката съдържание бързо и точно, за всяка форма на съдържание и за всеки език и общност по света.“
Но софтуерът за изкуствен интелект на Facebook все още се мъчи да открие някои части от съдържанието, които нарушават правилата. По-трудно е, например, да се разбере предназначението на изображенията, върху които е насложен текст, и не винаги получава сарказъм или жаргон. В много от тези случаи хората бързо ще могат да определят дали въпросното съдържание нарушава политиките на Facebook.
Facebook заяви, че наскоро е внедрил две нови технологии за изкуствен интелект, за да му помогне да се справи с тези предизвикателства.
Първият се нарича „Подсилен оптимизатор за цялост“, който се учи от реални онлайн примери и показатели вместо офлайн набор от данни. Вторият е AI архитектура, наречена „Linformer“, която позволява на Facebook да използва сложни модели за разбиране на езика, които преди са били твърде големи и „тромави“, за да работят в мащаб.
„Сега използваме RIO и Linformer в производството, за да анализираме съдържанието на Facebook и Instagram в различни региони по света“, каза Шрьопфер.
Facebook заяви, че е разработил и нов инструмент за откриване на фалшиви фалшификати (генерирани от компютър видеоклипове, направени да изглеждат реално) и е направил някои подобрения в съществуваща система, наречена SimSearchNet, която е инструмент за съвпадение на изображения, предназначен да открива дезинформация на своята платформа.
„Взети заедно, всички тези иновации означават, че нашите AI системи имат по-дълбоко и по-широко разбиране на съдържанието“, каза Шрьопфер. „Те са по-приспособени към нещата, които хората споделят в нашите платформи в момента, за да могат да се адаптират по-бързо, когато се появи и разпространи нов мем или снимка.“
Шрьопфер отбеляза, че предизвикателствата, пред които е изправен Facebook, са „сложни, нюансирани и бързо еволюиращи“, добавяйки, че неправилното класифициране на съдържанието като език на омразата или дезинформация може да „попречи на способността на хората да изразяват себе си“.