Untersuchung von Amazons AWS zu möglichen Verstößen von Perplexity AI
Amazon Cloud-Sparte prüft Perplexity AI wegen möglicher AWS-Regelverstöße
Die Cloud-Sparte von Amazon untersucht derzeit Perplexity AI, ein KI-Suchstartup, das von dem Jeff Bezos Familienfonds und Nvidia unterstützt wird, wegen möglicher Verstöße gegen AWS-Regeln. Die Untersuchung konzentriert sich darauf, ob Perplexity gegen das Robots Exclusion Protocol verstößt, indem es Inhalte von Websites kratzt, die dies durch das Robots Exclusion Protocol ausdrücklich verboten haben. AWS verlangt, dass Kunden sich strikt an den robots.txt-Standard halten, der ein Web-Standard ist, der angibt, welche Seiten automatisierte Bots nicht besuchen sollten.
Perplexity, das zuletzt auf 3 Milliarden US-Dollar bewertet wurde, wird vorgeworfen, diese Protokolle zu ignorieren und Inhalte von Websites wie Forbes, The Guardian und The New York Times zu kratzen. WIRED hat Beweise gefunden, dass Perplexity auf einen Server über eine nicht veröffentlichte IP-Adresse zugegriffen hat, um Inhalte von Condé Nast-Eigenschaften zu kratzen, obwohl es durch eine robots.txt-Datei blockiert wurde.
Zunächst wies Perplexity-CEO Aravind Srinivas die Fragen von WIRED als Missverständnis zurück, gab aber später zu, dass ein drittes Unternehmen am Web-Crawling und Indexieren beteiligt war. Er weigerte sich, den Firmennamen aufgrund eines Stillschweigeabkommens preiszugeben. Perplexity-Sprecherin Sara Platnick behauptete, PerplexityBot, der auf AWS betreibt, halte sich an robots.txt, räumte aber ein, dass er das Protokoll übergehe, wenn ein Benutzer eine spezifische URL angibt.
Digital Content Next, eine Branchenvereinigung, die die Interessen großer Verleger vertritt, hat Bedenken geäußert, dass Perplexity möglicherweise Prinzipien verletzt, die die Begehung von Urheberrechtsverletzungen in der generativen KI verhindern sollen. CEO Jason Kint betonte, dass KI-Unternehmen nicht automatisch davon ausgehen sollten, die Inhalte von Verlegern ohne Erlaubnis wiederverwenden zu dürfen. Wenn Perplexity tatsächlich gegen die Nutzungsbedingungen oder robots.txt verstößt, könnte dies auf unangemessenes Verhalten hindeuten.
Schlüsselerkenntnisse
- Amazon Web Services prüft Perplexity AI wegen potenzieller Web-Kratzverstöße.
- Perplexity AI, unterstützt von Jeff Bezos Familienfonds und Nvidia, ist 3 Milliarden US-Dollar wert.
- AWS verlangt die Einhaltung des Robots Exclusion Protocol; die Nutzungsbedingungen verbieten illegale Aktivitäten.
- Perplexity AI hat über eine nicht veröffentlichte IP-Adresse auf Condé Nast-Websites zugegriffen und somit die robots.txt umgangen.
- Perplexity behauptet, die robots.txt zu respektieren, gibt aber zu, diese zu ignorieren, wenn Benutzer eine bestimmte URL angeben.
Analyse
Die Untersuchung von Perplexity AI durch Amazon könnte zu Sanktionen führen, die den Ruf von AWS beeinträchtigen und die Betriebsfähigkeit von Perplexity beeinträchtigen. Finanzielle Unterstützer wie der Jeff Bezos Familienfonds und Nvidia könnten mit Bewertungsrisiken konfrontiert sein. Verlage wie Forbes und The New York Times könnten mit Folgen der Inhaltsmissbrauchs rechnen, die möglicherweise rechtliche Schritte auslösen. Möglicherweise wird Perplexity in naher Zukunft mit Betriebsbeschränkungen konfrontiert; im Langzeitszenario könnten strengere KI-Vorschriften entstehen. Dieser Vorfall unterstreicht die Spannung zwischen KI-Innovation und Rechten am geistigen Eigentum von Inhalten.
Haben Sie gewusst?
- Robots Exclusion Protocol (REP):
- Das Robots Exclusion Protocol ist ein Standard, der es Website-Betreibern ermöglicht, die Art und Weise zu kontrollieren, wie automatisierte Bots, wie Web-Crawler, mit ihren Websites interagieren. Durch die Verwendung einer
robots.txt
-Datei können Website-Betreiber spezifizieren, welche Teile ihrer Website von Bots nicht aufgerufen werden sollten. Dies ist wichtig für die Aufrechterhaltung der Website-Leistung und den Schutz sensibler oder nicht öffentlicher Inhalte.
- Das Robots Exclusion Protocol ist ein Standard, der es Website-Betreibern ermöglicht, die Art und Weise zu kontrollieren, wie automatisierte Bots, wie Web-Crawler, mit ihren Websites interagieren. Durch die Verwendung einer
- Web-Kratzen und seine ethischen Implikationen:
- Web-Kratzen beinhaltet die Verwendung von Bots zum Extrahieren von Daten aus Websites. Obwohl diese Praxis in der Datenanalyse und im AI-Training üblich ist, muss sie auf ethische und legale Weise durchgeführt werden. Zur Beachtung ethischer Gesichtspunkte gehört das Einhalten des robots.txt-Protokolls und die Erlangung der Erlaubnis von Website-Betreibern, soweit erforderlich. Unbefugtes Kratzen kann zu rechtlichen Problemen und Schäden am Ruf eines Unternehmens führen.
- Generative KI und Urheberrechtsbedenken:
- Die Generative KI, die Inhalte auf Grundlage bestehender Daten erstellt, wirft erhebliche Urheberrechtsbedenken auf. KI-Unternehmen müssen sicherstellen, dass sie keine Urheberrechte verletzen, wenn sie Inhalte von anderen Quellen verwenden. Dazu gehört das Einhalten der Nutzungsbedingungen von Websites und das Einholen entsprechender Genehmigungen für die Verwendung von urheberrechtlich geschütztem Material. Ein Verstoß gegen diese Regeln kann zu rechtlichen Schritten und einer Beeinträchtigung der ethischen Nutzung der KI-Technologie führen.