https://bodybydarwin.com
Slider Image

Facebook stellt 3000 neue Inhaltsmonitore für einen Job ein, den KI nicht kann

2022

Gestern gab Mark Zuckerberg bekannt, dass Facebook 3.000 Mitarbeiter für das Community-Operations-Team einstellt, das Bilder, Videos und Beiträge überprüft, über die Benutzer berichten. Diese neuen Mitarbeiter werden die 4.500 vorhandenen Mitarbeiter unterstützen, um die Reichweite zukünftiger Ereignisse wie der Erschießung von Robert Goodwin zu minimieren. Es ist eine beträchtliche, aber wesentliche Investition für Facebook, aber es führt uns zu einer grundlegenden Frage: Kann dieser Job nicht automatisiert werden?

Der Umfang dieser Arbeit ist gewaltig: Facebook stellt mehr Leute als Arbeit in den kombinierten Nachrichtenredaktionen der New York Times, des Wall Street Journal und der Washington Post ein. Facebook gibt derzeit nicht an, ob es sich bei den Jobs um Mitarbeiter oder Auftragnehmer handelt und ob sie ihren Sitz in den USA oder im Ausland haben. (Neugierig auf diese Arbeit? Lesen Sie Adrien Chens Einstieg in die Moderation von Inhalten aus dem Jahr 2014 oder sehen Sie sich dieses Video zum Moderationsprozess an.)

"Diese Überprüfer werden uns auch dabei helfen, Dinge, die wir auf Facebook nicht zulassen, wie Hassreden und Ausbeutung von Kindern, besser zu entfernen", schrieb Facebook-Chef Zuckerberg um jemandem zu helfen, wenn er es braucht - entweder weil er sich selbst Schaden zufügt oder weil er von jemand anderem in Gefahr ist. " (Betonung hinzugefügt)

Der Untertext ist der Mord am 16. April an Robert Goodwin in Cleveland. Laut einer von Facebook veröffentlichten Chronik hat ein Mann am 16. April um 14:09 Uhr Eastern ein Video hochgeladen, in dem er seine Absicht zum Mord erklärt. Zwei Minuten später lud der Mann das Video hoch, in dem er Goodwin drehte. Kurz darauf hat der Mordverdächtige fünf Minuten lang live auf Facebook gepostet. Das Video der Schießerei wurde um 16:00 Uhr gemeldet, und um 16:22 Uhr sperrte Facebook den Account des Schützen und entfernte seine Videos aus der öffentlichen Sicht. Das sind etwas mehr als zwei Stunden zwischen dem ersten Post und der Sperrung des Kontos, aber die Allgegenwart von Facebook und die schreckliche Natur des Mordes machten es zu nationalen Nachrichten.

Es gibt einige Inhalte, die Facebook beim Hochladen präventiv zensiert. Das Unternehmen verwendet automatisierte Systeme, um zuvor entfernte nackte und pornografische Fotos zu finden, wenn diese ein zweites Mal hochgeladen werden. Das soziale Netzwerk verwendet auch PhotoDNA, ein Tool, mit dem Bilder mit einer Datenbank bekannter Markierungen von Fotos zur Ausbeutung von Kindern verglichen werden, damit die Fotos gesperrt und den zuständigen Behörden gemeldet werden können. In beiden Fällen prüft die Automatisierung gegen vorher bekannte Größen.

Der größte Teil der Automatisierung in diesem Prozess unterstützt die manuelle Durchsetzung durch Prüfer menschlicher Inhalte. Wenn ein Inhaltselement 1.000 Mal gemeldet wird, erkennen die Tools doppelte Berichte, sodass es nur einmal manuell überprüft werden muss. Andere Tools leiten Bilder, Posts oder Videos an Prüfer mit spezifischem Fachwissen weiter. Beispielsweise könnte jemand, der Arabisch spricht, gekennzeichnete Inhalte einer extremistischen Gruppe in Syrien überprüfen, die möglicherweise gegen die Nutzungsbedingungen von Facebook verstoßen.

Dennoch ist es die Fähigkeit des Menschen, den Kontext zu verstehen, der den Tag bestimmt. Um festzustellen, ob ein Kommentar hasserfüllt oder mobbend ist, ist Facebook auf echte Menschen angewiesen. Und im speziellen Fall von Facebook Live gibt es ein Team, das sich der Überwachung von Live-Video-Berichten widmet. Die Gruppe überwacht automatisch alle Live-Videos, die einen bestimmten, nicht angegebenen Bekanntheitsgrad erreichen.

Es gibt einen Bereich, in dem Facebook der KI eine aktivere Rolle einräumt. Im März startete das Netzwerk ein Selbstmordpräventions-AI-Tool, das Posts identifiziert, die so aussehen, als würden sie auf Selbstmordgedanken hinweisen. BuzzFeed meldet, dass die KI Posts und Kommentare auf Ähnlichkeiten mit früheren Posts scannen kann, die eine Aktion rechtfertigten. In seltenen Fällen werden die Moderatoren direkt alarmiert, in den meisten Fällen werden jedoch Tools zur Selbstmordprävention angezeigt, z. B. die Nummer einer Helpline. Darüber hinaus macht die KI die Schaltfläche zum Melden von Selbstverletzungen für die Freunde der Person bekannter, wodurch die Wahrscheinlichkeit erhöht wird, dass sie das Video für die menschlichen Moderatoren von Facebook markieren. (Das Unternehmen lehnte es ab, die Aufzeichnung für diese Geschichte zu kommentieren.)

Die unmittelbare Alternative zur menschlichen Mäßigung ist wahrscheinlich die präventive Zensur.

"Wollen wir ein stärker zensiertes Facebook?", Sagte Kate Klonick, eine ansässige Mitarbeiterin des Informationsgesellschaftsprojekts in Yale. "Wenn Sie ein übermäßig robustes System einrichten, besteht die Gefahr, dass die Mitarbeiter nicht richtig geschult werden und es viel mehr Fehlalarme und viel mehr Zensur gibt."

Klonicks Arbeit konzentriert sich auf Facebook und andere Plattformen als Systeme, die die Online-Sprache steuern. Facebook muss aktiv entscheiden, wie es regelt, was gepostet wird und was gepostet bleibt, argumentiert Klonick, und es gibt kein algorithmisches Wundermittel, das dies von einem Sprachproblem in eine rein technische Herausforderung verwandeln kann.

"Wir sind Jahre davon entfernt, KI zu haben, die diese komplexen Entscheidungsprobleme lösen kann", sagte Klonick. "Es geht nicht nur um die Fotoerkennung, sondern um die Fotoerkennung über die Entscheidungsfindung über die Kategorisierung hinaus - alles schwierige Erkennungsprobleme, die wir bei weitem nicht zuverlässig herausfinden."

Die Herausforderung der Fotoerkennung ist in der Computerprogrammierung so ikonisch, dass sie selbst zu einer Parabel wird. 1966 schlug Seymour Papert vom MIT ein für ihn einfaches Sommerprojekt vor: Trainieren Sie einen Computer, um Objekte zu erkennen. Anstatt in einem Sommer fertig zu werden, ist die Ausbildung von Computern zum Erkennen von Objekten eine monumentale Aufgabe, die bis heute andauert. Unternehmen wie Google und Facebook investieren viel Geld und Stunden in die Erforschung einer Lösung.

"Auf absehbare Zeit", sagt Klonick, "ist es kein KI-Problem oder eine KI-Lösung."

Junglandwirte fordern Konventionen heraus, um die Nachhaltigkeit zu verbessern

Junglandwirte fordern Konventionen heraus, um die Nachhaltigkeit zu verbessern

Hier gibt es die verrücktesten Farmen der Welt, von Weltraumsprossen bis hin zu Landminenhülsenfrüchten

Hier gibt es die verrücktesten Farmen der Welt, von Weltraumsprossen bis hin zu Landminenhülsenfrüchten

Versuchen Sie diese Illusion auf dem Laufband und laufen wird nie mehr so ​​sein wie zuvor

Versuchen Sie diese Illusion auf dem Laufband und laufen wird nie mehr so ​​sein wie zuvor