AI-Blase könnte Krypto-Projekte gefährden – Analysten
Krypto-AI-Projekte stehen vor neuen Herausforderungen
Die jüngsten Befürchtungen an der Wall Street über ein mögliches Platzen der AI-Blase haben Bedenken über die Zukunft von auf AI fokussierten Krypto-Projekten aufgeworfen. Während AI-Technologie durch Fortschritte wie ChatGPT zunehmend in den Mainstream rückt, haben Investoren begonnen, massiv in verschiedene AI-Vorhaben zu investieren, darunter auch in Kryptowährungen.
Nvidia, ein Schlüsselakteur im Bereich AI-Hardware, sah seinen Aktienkurs in die Höhe schnellen und überholte sogar Bitcoin. Doch jüngste Marktverwerfungen, einschließlich eines signifikanten Wertverlusts der Nvidia-Aktien aufgrund von Problemen in der AI-Chip-Produktion, haben die Sorgen über eine mögliche AI-Blase verstärkt.
Diese Marktverschiebung hat zu wachsendem Skeptizismus über die Nachhaltigkeit von AI-Investitionen geführt. Daher stellen Wall-Street-Analysten zunehmend infrage, ob die hohen Investitionen in AI-Modelle durch die erzielten Umsätze gerechtfertigt sind.
Ihre Studien legen nahe, dass viele AI-Projekte ihre Versprechen nicht einhalten könnten, was zu der Sorge führt, dass die AI-Blase kurz vor dem Platzen steht. Folglich sehen sich Krypto-AI-Projekte, die hinter dem AI-Hype floriert haben, erheblichen Herausforderungen gegenüber.
Mirza Uddin, Leiter der Geschäftsentwicklung bei der dezentralen Finanzplattform Injective, argumentiert, dass viele dieser Projekte keine soliden Grundlagen haben. Er fügte hinzu, dass viele AI-bezogene Krypto-Projekte nicht auf echter AI-Technologie basieren, sondern den Begriff lediglich als Schlagwort nutzen, um Aufmerksamkeit zu erregen.
Testen Sie noch heute GPT Definity AI, den #1 Krypto-Trading-Roboter! Klicken Sie hier, um mehr zu erfahren. Trading-Roboter mit künstlicher Intelligenz erobern das Handels-Ökosystem, Sie können sich dieser Revolution anschließen und von den täglichen Einnahmen profitieren! Seien Sie dem Handelsgeschehen mit der Krypto-Handelssoftware mit künstlicher Intelligenz noch heute voraus!
Laut Uddin sind nur ein kleiner Bruchteil dieser Projekte tatsächlich auf sinnvollen AI-Anwendungen aufgebaut, während die meisten nur ChatGPT-Klone oder auffällige Vorschläge mit wenig praktischem Nutzen sind.
Branchenführer raten zur Vorsicht
Gleichzeitig bemerkte Basel Ismail, CEO des Analyseunternehmens Blockcircle, dass viele Krypto-AI-Projekte das AI-Label nutzen, um finanzielle Gewinne zu erzielen, anstatt substanziell Technologie zu bieten. Er verglich die aktuelle Situation mit der Dotcom-Blase, bei der viele Unternehmen scheiterten, während nur wenige, wie Amazon und Google, erfolgreich wurden.
Ismail glaubt, dass ein ähnlicher Trend bei Krypto-AI auftreten wird, wobei nur Projekte mit echter Innovation und praktischen Anwendungen überleben werden. Auch Tegan Kline, CEO von Edge and Node, die The Graph entwickelt haben, teilt diese Meinung.
Im Falle eines Platzens der AI-Blase wird die finanzielle Unterstützung eine entscheidende Rolle dabei spielen, welche Projekte überleben. Daher meinte Uddin, dass viele Krypto-AI-Projekte nicht über die nötigen Mittel verfügen, um einen solchen Abschwung zu überstehen.
Er erklärte, dass die Entwicklung und das Training von AI-Modellen teuer sind und kleine Seed-Runden oder Anfangsfinanzierungen möglicherweise nicht ausreichen, um langfristig erfolgreich zu sein. Projekte mit erheblichen finanziellen Ressourcen und starken Entwicklungsteams werden besser positioniert sein, um eine Marktkorrektur zu überstehen.
Darüber hinaus kann der Zugang zu wertvollen Daten und bestehenden Netzwerken die Fähigkeit eines Projekts beeinflussen, den Sturm zu überstehen. Kline bemerkte, dass Projekte mit robustem Datenzugriff und etablierten Gemeinschaftsverbindungen widerstandsfähiger gegenüber einem Marktrückgang sein werden.
Kaliforniens AI-Sicherheitsgesetz stößt auf Widerstand der Tech-Branche
In der Zwischenzeit hat ein kalifornisches Gesetz zur Regulierung von Künstlicher Intelligenz (AI) starken Widerstand aus der Tech-Branche im Silicon Valley erfahren. Bekannt als SB 1047 oder „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act“, verlangt das Gesetz von AI-Entwicklern, strikte Sicherheitsprotokolle zu implementieren.
Das Ziel ist es, zu verhindern, dass AI großflächigen Schaden verursacht, wie z. B. Massenopfer oder erhebliche Cyberangriffe. Eine der zentralen Bestimmungen von SB 1047 ist die Forderung nach einem „Not-Aus“-Knopf für AI-Systeme, der jede als gefährlich erachtete AI-Operation sofort stoppen könnte.
Das Gesetz schreibt außerdem jährliche Drittanbieter-Audits der AI-Sicherheitspraktiken vor, um die Einhaltung der Vorschriften sicherzustellen. Zudem schlägt das Gesetz die Schaffung einer neuen Regulierungsbehörde, der Frontier Model Division (FMD), vor, die die AI-Branche überwachen und diese Regeln durchsetzen soll. Entwickler, die die Vorschriften nicht einhalten, könnten mit schweren Strafen rechnen.
Silicon Valley und der Kongress äußern Bedenken
Das Gesetz hat jedoch erheblichen Widerstand innerhalb des Kongresses und der Tech-Industrie ausgelöst. US-Kongressabgeordneter Ro Khanna, der Silicon Valley vertritt, hat seine Bedenken geäußert.
In seiner Stellungnahme erkannte Khanna die Notwendigkeit von AI-Regulierungen an, um Risiken wie Fehlinformationen, Deepfakes und wirtschaftliche Ungleichheit anzugehen. Khanna kritisierte jedoch das Gesetz als übermäßig strafend gegenüber kleinen Unternehmen und Start-ups und warnte, dass die Gesetzgebung Innovationen hemmen könnte.
Risikokapitalgeber und Forscher lehnen ab
Risikokapitalfirmen, insbesondere Andreessen Horowitz (a16z), haben sich ebenfalls vehement gegen das Gesetz ausgesprochen. Jaikumar Ramaswamy, Chefjustiziar von a16z, schrieb Senator Scott Wiener, einem der Gesetzessponsoren, diesen Monat einen Brief.
In dem Brief argumentierte Ramaswamy, dass die „willkürlichen und sich ändernden Schwellenwerte“ des Gesetzes eine unzumutbare Belastung für Start-ups darstellen würden. Auch prominente AI-Forscher wie Fei-Fei Li und Andrew Ng haben Bedenken geäußert.
Sie glauben, dass die Gesetzgebung dem breiteren AI-Ökosystem schaden könnte, insbesondere der Entwicklung von Open-Source-Software und der akademischen Forschung. Trotz dieser Bedenken hat das Gesetz den Senat im Mai mit parteiübergreifender Unterstützung passiert und wird nun von der Assembly geprüft, eine Entscheidung wird bis zum 31. August erwartet.