KI beim Wechsel in die Cloud kosteneffizient halten

Ein Bild von , Nachrichten, KI bei der Umstellung auf die Cloud kosteneffizient halten

Kann künstliche Intelligenz heute einen echten Mehrwert liefern?

KI steckt noch in den Kinderschuhen, aber die ersten Wachstumsschübe sind für die Branche vielversprechend. Laut der Boston Consulting Group haben zwar 59 % der Unternehmen eine KI-Strategie entwickelt und 57 % Pilotprojekte in diesem Bereich durchgeführt, aber nur 11 % haben irgendeine Art von Rendite von KI gesehen. Das Potenzial ist jedoch enorm; Einige Quellen schätzen, dass sich die Größe des globalen KI-Marktes von 15 Mrd. USD (2021) auf 150 Mrd. USD bis 2028 verzehnfachen könnte, und in Großbritannien könnten die Ausgaben für KI-Technologien bis 83 2040 Mrd. GBP erreichen, von 16.7 Mrd. GBP im Jahr 2020. 

Unabhängig von der Anwendung beginnen die meisten KI-Projekte in der Regel als kleine, experimentelle Tests, die auf einem internen Server gehostet werden, und gehen schließlich in Cloud-Umgebungen über, in denen ihre Betriebszeit, Sicherheit, Skalierbarkeit und Wartung gewährleistet werden können. Diese Migration – sozusagen die „Teenager“-Phase im Lebenszyklus einer KI-Anwendung – ist jedoch oft die schwierigste und schmerzhafteste. 

Growing Pains

Beim Verschieben einer KI-Anwendung in die Cloud geht es nicht nur darum, eine größere Skalierbarkeit zu gewährleisten und die Betriebszeit zu verbessern – es ist oft eine Frage der Kosten. KI-Anwendungen sind in der Regel stark auf GPUs und GPU-ähnliche Prozessoren angewiesen, was für jedes Startup oder Labor eine erhebliche Investition sein kann. Obwohl eine einzelne spezialisierte Karte für rund tausend Pfund zu finden ist, können fortschrittlichere Hochleistungs-GPUs im Bereich von jeweils 5,000 bis 15,000 Pfund liegen. Die Bereitstellung dieses hohen Leistungsniveaus in großem Maßstab kommt aus Investitionssicht oft nicht in Frage, insbesondere für ein Start-up. 

Darüber hinaus stoßen KI-Anwendungsentwickler irgendwann an die Grenzen ihrer eigenen Maschinen; KI muss normalerweise mit außergewöhnlich großen Datensätzen trainiert werden, was bedeuten kann, dass RAM und Speicherplatz ziemlich schnell knapp werden. Ein Upgrade auf eine Hochleistungsmaschine in der Cloud kann diesen Engpass sowohl in der Entwicklungs- als auch in der Produktionsphase beseitigen. Es gibt jedoch eine Reihe von Dingen, die Teams beachten und auf die sie sich vorbereiten sollten, wenn sie die Migration in die Cloud so einfach und produktiv wie möglich gestalten wollen. 

Wenn Pläne zusammenkommen

In den sehr frühen Stadien sind Recherche und Vorbereitung entscheidend. Zum Beispiel ist Portabilität der Schlüssel; Von Anfang an auf einer Plattform wie Docker zu arbeiten, kann Ihnen vor und nach der Migration sehr helfen. Auch vor dem Wechsel in ein Rechenzentrum eines Drittanbieters bedeutet die Arbeit in einer containerisierten Umgebung, dass Ihre Kollegen und Mitarbeiter die App und ihre Abhängigkeiten schnell replizieren und unter genau denselben Bedingungen wie Sie ausführen können, was robuste und zuverlässige Tests ermöglicht. Die Ausführung einer KI-Anwendung in einem Container bedeutet jedoch auch, dass Sie die Neukonfiguration während des Migrationsprozesses minimieren.

Aus Anbietersicht lohnt es sich, die Referenzen von Cloud-Unternehmen zu verstehen; Wird ihre Sicherheit beispielsweise regelmäßig von unabhängigen Stellen überprüft? Haben sie eine spezifische Sicherheitsakkreditierung von den Anbietern, die sie ihrerseits verwenden? KI-Anwendungen können oft mit äußerst sensiblen Daten umgehen – von einfachen Chatbots im Privatkundengeschäft bis hin zu komplexen Analysesystemen im Gesundheitswesen beispielsweise – daher ist es ein Muss, sicherzustellen, dass diese Daten angemessen gehandhabt, gespeichert und geschützt werden. 

Ebenso ist Nachhaltigkeit ein wichtiger Aspekt. KI erfordert eine hohe Rechenleistung und das Wall Street Journal hat kürzlich enthüllt, dass die Bearbeitung einer Suchanfrage über ChatGPT siebenmal rechenintensiver ist als eine Standardsuchmaschine. Tatsächlich fand das Forschungsteam der University of Massachusetts Amherst heraus, dass der GPT-2-Algorithmus (der ältere Bruder von ChatGPT) ungefähr 282 Tonnen CO2-Äquivalent erzeugte – eine ähnliche Menge wie die gesamte globale Bekleidungsindustrie bei der Herstellung von Polyester im Jahr 2015 erzeugte. KI-Anwendung Entwickler sollten Nachhaltigkeit von Anfang an berücksichtigen, ebenso wie ihre Partner mit Recycling und Elektroschrott umgehen. 

Auf einer spezifischeren Ebene ist es auch wichtig, sich über die Skalierung im Klaren zu sein. Durch klare Gespräche mit Cloud-Anbietern über die Besonderheiten der App-Funktionalität, wer die App nutzen wird und was das für die technische Architektur bedeutet, kann sichergestellt werden, dass kein Aspekt vernachlässigt wird. Schließlich können die meisten großen Cloud-Anbieter eine automatische und unbegrenzte Skalierung anbieten, aber es gibt einen großen Unterschied zwischen der Einrichtung, die für ein System erforderlich ist, das zehn Anfragen pro Tag erhält, und einem System, das zehntausend in einer Minute erhält, also ist es wichtig, dies zu tun Seien Sie sich beispielsweise über Instanzbereiche im Klaren. 

Ebenso sind Latenzüberlegungen von entscheidender Bedeutung; Chatbots und andere Echtzeitsysteme müssen sofort auf Webbenutzer reagieren. Folglich bedeutet dies, dass sowohl der Code als auch die Infrastruktur eine ausreichend niedrige Latenz aufweisen müssen und Entwickler und Deployer jede mögliche Millisekunde einsparen müssen. In Bezug auf die Bereitstellung bedeutet dies zum Beispiel zu prüfen, ob sich die Rechenressourcen so nah an (oder am selben Ort wie) den Daten befinden, was dazu beiträgt, die Dinge so schnell wie möglich zu halten. 

Schließlich ist nach der Bereitstellung der Anwendung eine kontinuierliche Überwachung wichtig. Möglicherweise gibt es in der Umgebung des Cloud-Anbieters alternative Konfigurationen, die seinen Anforderungen besser entsprechen könnten – oder in einigen Fällen ist der Wechsel zu einem alternativen Anbieter möglicherweise das Beste für die App. Die Arbeit mit offenen Standards in einer Open-Source-Cloud-Umgebung wie OpenStack kann dies oft weniger herausfordernd machen. 

Wenn KI erwachsen wird

Niemand weiß, ob KI jemals die erhabenen – und manchmal erschreckenden – Höhen erreichen wird, die Science-Fiction-Filme seit Jahrzehnten versprechen. Wenn diese unglaublich vielversprechende und leistungsstarke Technologie jedoch ihr volles Potenzial ausschöpfen soll, insbesondere angesichts der aktuellen Energiekrise, muss sie so effizient und effektiv wie möglich eingesetzt werden und es ihren Entwicklern ermöglichen, sich auf ihre Kernaufgabe, den Aufbau von KI, zu konzentrieren Systeme, anstatt sich Gedanken über Infrastruktur und betriebliche Belange zu machen. 

Wenn KI-Entwickler sorgfältig planen, ihre Partner gut auswählen und ihre Prozesse rationalisieren können, wenn sie Anwendungen von ihrer On-Premise-Stützradumgebung in die größere, breitere und flexiblere Welt der Cloud verschieben, werden sie ihre Erfolgschancen erheblich erhöhen Umverteilungen, Kosten niedrig und zufriedene Endnutzer. Und obwohl das nicht dasselbe ist, wie WALL-E, einen T-1000 oder Chappie zu bauen, ist es ein Schritt in die richtige Richtung.  

Ein Bild von , Nachrichten, KI bei der Umstellung auf die Cloud kosteneffizient halten

Alexis Gendroneau

Leiter Datenprodukte bei OVHcloud

Erzielen Sie Produktivitäts- und Effizienzsteigerungen durch Datenmanagement

Russ Kennedy • 04. Juli 2023

Unternehmensdaten sind seit vielen Jahren eng mit Hardware verknüpft, doch jetzt ist ein spannender Wandel im Gange, da die Ära der Hardware-Unternehmen vorbei ist. Mit fortschrittlichen Datendiensten, die über die Cloud verfügbar sind, können Unternehmen auf Investitionen in Hardware verzichten und das Infrastrukturmanagement zugunsten des Datenmanagements aufgeben.