Inhaltsverzeichnis
Inhaltsverzeichnis
Wie wähle ich die Chargengröße aus?
Heim Technologie-Peripheriegeräte KI Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Jun 30, 2025 am 09:46 AM

Deep Learning hat das KI-Feld revolutioniert, indem Maschinen in unseren Daten eingehendere Informationen erfassen können. Deep Learning war in der Lage, dies zu tun, indem er replizierte, wie unser Gehirn durch die Logik der Neuron -Synapsen funktioniert. Einer der kritischsten Aspekte der Schulung von Deep -Learning -Modellen ist, wie wir unsere Daten während des Trainingsprozesses in das Modell einfügen. Hier kommen die Batch-Verarbeitung und das Mini-Batch-Training ins Spiel. Wie wir unsere Modelle trainieren, wirken sich die Gesamtleistung der Modelle aus, wenn wir in die Produktion eingesetzt werden. In diesem Artikel werden wir uns tief in diese Konzepte eintauchen, ihre Vor- und Nachteile vergleichen und ihre praktischen Anwendungen untersuchen.

Inhaltsverzeichnis

  • Deep -Lern -Trainingsprozess
  • Was ist die Batch -Verarbeitung?
  • Was ist ein Mini-Batch-Training?
  • Wie Gradientenabstieg funktioniert
    • Einfache Analogie
  • Mathematische Formulierung
    • Beispiel für echtes Leben
  • Praktische Umsetzung
    • Wie wähle ich die Chargengröße aus?
    • Kleine Chargengröße
    • Große Chargengröße
  • Gesamtdifferenzierung
  • Praktische Empfehlungen
  • Abschluss

Deep -Lern -Trainingsprozess

Training Ein Deep -Learning -Modell beinhaltet die Minimierung der Verlustfunktion, die den Unterschied zwischen den vorhergesagten Ausgaben und den tatsächlichen Beschriftungen nach jeder Epoche misst. Mit anderen Worten, der Trainingsprozess ist ein Paar -Tanz zwischen Vorwärtsverbreitung und rückständiger Ausbreitung. Diese Minimierung wird typischerweise mit Gradientenabsenken erreicht, einem Optimierungsalgorithmus, der die Modellparameter in der Richtung aktualisiert, die den Verlust verringert.

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Sie können hier mehr über den Gradient -Abstiegsalgorithmus lesen .

Hier werden die Daten aufgrund von Rechen- und Speicherbeschränkungen selten eine Probe gleichzeitig oder auf einmal übergeben. Stattdessen werden Daten in Brocken als "Charge" übergeben.

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

In den frühen Stadien des maschinellen Lernens und des neuronalen Netzwerks wurden zwei gängige Methoden der Datenverarbeitung verwendet:

1. Stochastisches Lernen

Diese Methode aktualisiert die Modellgewichte mithilfe einer einzelnen Trainingsprobe gleichzeitig. Während es die schnellsten Gewichtsaktualisierungen bietet und bei Streaming -Datenanwendungen nützlich sein kann, verfügt es über erhebliche Nachteile:

  • Hoch instabile Updates aufgrund verrauschter Gradienten.
  • Dies kann zu einer suboptimalen Konvergenz und längeren Gesamttrainingszeiten führen.
  • Nicht gut geeignet für die parallele Verarbeitung mit GPUs.

2. Lernen Vollbecken

Hier wird der gesamte Trainingsdatensatz verwendet, um Gradienten zu berechnen und ein einzelnes Update für die Modellparameter durchzuführen. Es hat sehr stabile Gradienten und Konvergenzverhalten, die große Vorteile sind. Apropos Nachteile, hier sind jedoch einige:

  • Extrem hoher Speicherverbrauch, insbesondere für große Datensätze.
  • Langsame Berechnung von pro Schwächer, während sie darauf wartet, den gesamten Datensatz zu verarbeiten.
  • Unflexibel für dynamisch wachsende Datensätze oder Online -Lernumgebungen.

Als Datensätze größer wurden und die neuronalen Netze tiefer wurden, erwiesen sich diese Ansätze in der Praxis ineffizient. Speicherbeschränkungen und rechnerische Ineffizienz haben Forscher und Ingenieure dazu gebracht, einen Mittelweg zu finden: Mini-Batch-Training .

Lassen Sie uns nun versuchen zu verstehen, welche Chargenverarbeitung und Mini-Batch-Verarbeitung.

Was ist die Batch -Verarbeitung?

Für jeden Trainingsschritt wird der gesamte Datensatz auf einmal in das Modell eingespeist, ein Prozess, der als Stapelverarbeitung bezeichnet wird. Ein anderer Name für diese Technik ist der Abstieg des Abstiegs des Ganzergradienten.

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Schlüsselmerkmale:

  • Verwendet den gesamten Datensatz, um Gradienten zu berechnen.
  • Jede Epoche besteht aus einem einzigen Vorwärts- und Rückwärtspass.
  • Gedächtnisintensiv.
  • Im Allgemeinen langsamer pro Epoche, aber stabil.

Wann zu verwenden:

  • Wenn der Datensatz vollständig in den vorhandenen Speicher passt (ordnungsgemäße Anpassung).
  • Wenn der Datensatz klein ist.

Was ist ein Mini-Batch-Training?

Ein Kompromiss zwischen Stapelgradientenabstieg und stochastischem Gradientenabstieg ist das Mini-Batch-Training. Es verwendet eine Untergruppe oder einen Teil der Daten und nicht den gesamten Datensatz oder ein einzelnes Beispiel.

Schlüsselmerkmale:

  • Teilen Sie den Datensatz in kleinere Gruppen auf, z. B. 32, 64 oder 128 Proben.
  • Führen Sie nach jedem Mini-Batch Gradient-Updates durch.
  • Ermöglicht eine schnellere Konvergenz und eine bessere Verallgemeinerung.

Wann zu verwenden:

  • Für große Datensätze.
  • Wenn GPU/TPU verfügbar ist.

Fassen wir die obigen Algorithmen in tabellarischer Form zusammen:

Typ Chargengröße Häufigkeit aktualisieren Speicheranforderung Konvergenz Lärm
Vollbezüge Gesamter Datensatz Einmal pro Epoche Hoch Stabil, langsam Niedrig
Mini-Batch zB 32/64/128 Nach jeder Charge Medium Ausgewogen Medium
Stochastisch 1 Probe Nach jeder Probe Niedrig Laut, schnell Hoch

Wie Gradientenabstieg funktioniert

Gradientenabstieg bewirkt, indem die Parameter des Modells von Zeit zu Zeit iterativ aktualisiert werden, um die Verlustfunktion zu minimieren. In jedem Schritt berechnen wir den Gradienten des Verlusts in Bezug auf die Modellparameter und bewegen uns in Richtung entgegengesetzter Richtung des Gradienten.

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Aktualisierungsregel: θ = θ - η ≤ ∇θj (θ)

Wo:

  • θ sind Modellparameter
  • η ist die Lernrate
  • ∇θj (θ) ist der Gradient des Verlusts

Einfache Analogie

Stellen Sie sich vor, Sie sind mit verbundenen Augen und versuchen, den niedrigsten Punkt auf einer Spielplatzrutsche zu erreichen. Sie unternehmen winzige Schritte bergab, nachdem Sie den Hang mit Ihren Füßen gefühlt haben. Die Steilheit des Hangs unter Ihren Füßen bestimmt jeden Schritt. Da wir allmählich absteigen, ähnelt dies dem Gradientenabstieg. Das Modell bewegt sich in Richtung der größten Fehlerreduzierung.

Vollbeschaffungsabstieg ähnelt der Verwendung einer riesigen Folienkarte, um Ihre beste Vorgehensweise zu bestimmen. Sie fragen einen Freund, wohin Sie gehen möchten, und machen dann einen Schritt in stochastische Abstammung. Vor der Schauspielerei richten Sie eine kleine Gruppe in Mini-Batch-Abstieg.

Mathematische Formulierung

Sei x ∈ R n × D die Eingangsdaten mit N -Proben und D -Merkmalen.

Abfindungsabstieg zum Vollbecken

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Mini-Batch-Gradientenabstieg

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Beispiel für echtes Leben

Versuchen Sie, die Kosten eines Produkts anhand von Bewertungen zu schätzen.

Es ist ein Vollbekundung, wenn Sie alle 1000 Bewertungen lesen, bevor Sie eine Wahl treffen. Die Entscheidung nach dem Lesen nur einer Rezension ist stochastisch. Ein Mini-Batch ist, wenn Sie eine kleine Anzahl von Bewertungen (z. B. 32 oder 64) lesen und dann den Preis schätzen. Mini-Batch ist ein gutes Gleichgewicht zwischen zuverlässig genug, um kluge Entscheidungen zu treffen, und schnell genug, um schnell zu handeln.

Mini-Batch gibt eine gute Balance: Es ist schnell genug, um schnell und zuverlässig genug zu handeln, um kluge Entscheidungen zu treffen.

Praktische Umsetzung

Wir werden Pytorch verwenden, um den Unterschied zwischen Stapel- und Mini-Batch-Verarbeitung zu demonstrieren. Durch diese Implementierung können wir verstehen, wie gut diese 2 Algorithmen dazu beitragen, zu unserer optimalsten globalen Minima zu konvergieren.

 Taschenlampe importieren
taporch.nn als nn importieren
tarch.optim als optimal importieren
von Torch.utils.data Importieren Sie Dataloader, TensSortaset
matplotlib.pyplot als pLT importieren


# Synthetische Daten erstellen
X = fackel.randn (1000, 10)
y = fackel.randn (1000, 1)


# Modellarchitektur definieren
Def create_model ():
    nn.sequential zurückgeben (
        Nn.Linear (10, 50),
        nn.relu (),
        Nn.Linear (50, 1)
    )


# Verlustfunktion
LUST_FN = nn.mseloss ()


# Mini-Batch-Training
model_mini = create_model ()
optimizer_mini = optim.sgd (model_mini.parameters (), lr = 0,01)
DataSet = TensSordataset (x, y)
Dataloader = Dataloader (Dataset, batch_size = 64, shuffle = true)


mini_batch_losses = []


für Epoche in Reichweite (64):
    epoch_loss = 0
    Für batch_x, batch_y in Dataloader:
        optimizer_mini.zero_grad ())
        Ausgänge = model_mini (batch_x)
        LUST = LUST_FN (Ausgänge, batch_y)
        Verlust.Backward ()
        optimizer_mini.step ()
        epoch_loss = Verlust.Item ())
    mini_batch_losses.append (epoch_loss / len (Dataloader)))


# Vollstreicher Training
model_full = create_model ()
optimizer_full = optim.sgd (model_full.parameters (), lr = 0,01)


full_batch_losses = []


für Epoche in Reichweite (64):
    optimizer_full.zero_grad ()
    Ausgänge = model_full (x)
    Verlust = LUST_FN (Ausgänge, y)
    Verlust.Backward ()
    optimizer_full.step ()
    full_batch_losses.Append (Verlust.Item ()))


# Die Verlustkurven darstellen
Plt.Figure (AbbSize = (10, 6))
PLT.PLOT (mini_batch_losses, Label = 'Mini-Batch-Training (batch_size = 64)', marker = 'o')
PLT.PLOT (full_batch_losses, Label = 'Vollbeschwerer Training', marker = 's')
PLT.TITLE ("Trainingsvergleich")
Plt.xlabel ('Epoche')
Plt.ylabel ('Verlust')
Plt.Legend ()
Plt.grid (wahr)
Plt.TIGHT_LAYOUT ()
Plt.Show () 

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

Hier können wir den Trainingsverlust im Laufe der Zeit visualisieren, um beide Strategien zu beobachten, um den Unterschied zu beobachten. Wir können beobachten:

  1. Das Mini-Batch-Training zeigt normalerweise einen reibungsloseren und schnelleren anfänglichen Fortschritt, da es häufiger Gewichte aktualisiert.

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning

  1. Das Voll-Batch-Training kann weniger Updates haben, aber sein Gradient ist stabiler.

In realen Anwendungen werden Mini-Stapel häufig für eine bessere Generalisierung und Recheneffizienz bevorzugt.

Wie wähle ich die Chargengröße aus?

Die von uns festgelegte Chargengröße ist ein Hyperparameter, mit dem gemäß Modellarchitektur und Datensatzgröße experimentiert werden muss. Eine effektive Weise, um einen optimalen Stapelgrößenwert zu entscheiden, besteht darin, die Kreuzvalidierungsstrategie zu implementieren.

Hier ist ein Tisch, der Ihnen dabei hilft, diese Entscheidung zu treffen:

Besonderheit Vollbezüge Mini-Batch
Gradientenstabilität Hoch Medium
Konvergenzgeschwindigkeit Langsam Schnell
Speicherverbrauch Hoch Medium
Parallelisierung Weniger Mehr
Trainingszeit Hoch Optimiert
Verallgemeinerung Kann übertreiben Besser

Hinweis: Wie oben erläutert, ist Batch_Size ein Hyperparameter, der für unser Modelltraining gut abgestimmt werden muss. Es ist also notwendig zu wissen, wie niedrigere Chargengröße und höhere Chargengrößenwerte funktionieren.

Kleine Chargengröße

Kleinere Chargengrößenwerte würden meistens unter 1 bis 64 fallen. Hier finden die schnelleren Updates statt, da die Gradienten häufiger aktualisiert werden (pro Stapel), das Modell früh lernen und die Gewichte schnell aktualisiert. Konstante Gewichtsaktualisierungen bedeuten mehr Iterationen für eine Epoche, die den Rechenaufwand erhöhen und die Trainingsprozesszeit erhöhen können.

Das „Lärm“ bei der Gradientenschätzung hilft dabei, scharfen lokalen Minima und Überanpassungen zu entkommen, was häufig zu einer besseren Testleistung führt, wodurch eine bessere Verallgemeinerung aufweist. Aufgrund dieser Geräusche kann es auch eine instabile Konvergenz geben. Wenn die Lernrate hoch ist, können diese lauten Gradienten dazu führen, dass das Modell das Überschwingen und unterschiedliche.

Stellen Sie sich eine kleine Chargengröße als häufiges, aber wackelige Schritte in Richtung Ihres Ziels vor. Möglicherweise gehen Sie nicht in einer geraden Linie, aber Sie könnten insgesamt einen besseren Weg entdecken.

Große Chargengröße

Größere Chargengrößen können aus einem Bereich von 128 und höher berücksichtigt werden. Größere Chargengrößen ermöglichen eine stabilere Konvergenz, da mehr Proben pro Batch -Durchschnittsgradienten glatter und näher am wahren Gradienten der Verlustfunktion sind. Bei glatteren Gradienten kann das Modell möglicherweise nicht flach oder scharfe lokale Minima entkommen.

Hier sind weniger Iterationen erforderlich, um eine Epoche zu vervollständigen, wodurch ein schnelleres Training ermöglicht wird. Große Chargen erfordern mehr Speicher, für die GPUs diese riesigen Stücke verarbeiten müssen. Obwohl jede Epoche schneller ist, kann es aufgrund kleinerer Aktualisierungsschritte und einem Mangel an Gradientenrauschen mehr Epochen dauern.

Eine große Chargengröße ist wie mit vorgefertigten Schritten stetig auf unser Ziel zu gehen, aber manchmal können Sie stecken bleiben, weil Sie nicht alle anderen Wege erforschen.

Gesamtdifferenzierung

Hier ist eine umfassende Tabelle, in der das Training für vollständige Batch- und Mini-Batch-Trainings verglichen wird.

Aspekt Vollbecken-Training Mini-Batch-Training
Profis - stabile und genaue Gradienten
- Präzise Verlustberechnung
- schnelleres Training aufgrund häufiger Updates
- unterstützt die Parallelität der GPU/TPU
- bessere Verallgemeinerung aufgrund von Lärm
Nachteile - Konsum mit hohem Speicherverbrauch
-Langsamer Training pro Epoch
- Nicht skalierbar für Big Data
- lautere Gradienten -Updates
- erfordert die Stimmung der Chargengröße
- etwas weniger stabil
Anwendungsfälle - Kleine Datensätze, die in den Speicher passen
- Wenn die Reproduzierbarkeit wichtig ist
-Große Datensätze
- Deep Learning auf GPUs/TPUs
-Pipelines in Echtzeit oder Streaming-Training

Praktische Empfehlungen

Betrachten Sie bei der Auswahl zwischen Batch- und Mini-Batch-Training Folgendes:

Berücksichtigen Sie das Folgende, wenn Sie sich zwischen Batch- und Mini-Batch-Training entscheiden:

  • Wenn der Datensatz klein ist (weniger als 10.000 Proben) und der Speicher kein Problem ist: Aufgrund seiner Stabilität und genauen Konvergenz kann der Abstieg des Ganze-Batch-Gradienten möglich sein.
  • Für mittelgroße bis große Datensätze (z. B. 100.000 Proben): Mini-Batch-Training mit Chargengrößen zwischen 32 und 256 ist häufig der Sweet Spot.
  • Verwenden Sie das Mischen vor jeder Epoche im Mini-Batch-Training, um Lernmuster in Datenreihenfolge zu vermeiden.
  • Verwenden Sie die Lernrate-Planung oder adaptive Optimierer (z. B. Adam, RMSProp usw.), um laute Updates im Mini-Batch-Training zu mildern.

Abschluss

Die Batch-Verarbeitung und das Mini-Batch-Training sind die must-kenner grundlegenden Konzepte bei der Optimierung des Deep-Learning-Modells. Während das vollständige Training die stabilsten Gradienten bietet, ist es aufgrund von Speicher- und Berechnungsbeschränkungen, die zu Beginn erläutert werden, selten für moderne, groß angelegte Datensätze möglich. Das Mini-Batch-Training auf der anderen Seite bringt das richtige Gleichgewicht und bietet mit Hilfe der GPU/TPU-Beschleunigung eine anständige Geschwindigkeit, Verallgemeinerung und Kompatibilität. Es ist somit zum De-facto-Standard in den meisten tiefen Anwendungen in der realen Welt geworden.

Die Auswahl der optimalen Chargengröße ist keine einheitliche Entscheidung. Es sollte sich vom Datensatz und dem E -Xisting -Speicher und den Hardware -Ressourcen geleitet lassen. Die Auswahl des Optimierers und der Verallgemeinerung und Konvergenzgeschwindigkeit z. Learning_Rate, Decay_rate sollen ebenfalls berücksichtigt werden. Wir können Modelle schneller, genau und effizient erstellen, indem wir diese Dynamik verstehen und Tools wie Lernrate -Zeitpläne, adaptive Optimierer (wie ADAM) und Stapelgrößenstimmen verwenden.

Das obige ist der detaillierte Inhalt vonBatch-Verarbeitung gegen Mini-Batch-Training im Deep Learning. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

KI -Investor stillte zum Stillstand? 3 Strategische Wege zum Kauf, Bau oder Partner mit KI -Anbietern KI -Investor stillte zum Stillstand? 3 Strategische Wege zum Kauf, Bau oder Partner mit KI -Anbietern Jul 02, 2025 am 11:13 AM

Das Investieren boomt, aber Kapital allein reicht nicht aus. Mit zunehmender Bewertungen und Verblassen der Unterscheidungskraft müssen Investoren in AI-fokussierten Risikokonstrumentfonds eine wichtige Entscheidung treffen: Kaufen, Bau oder Partner, um einen Vorteil zu erlangen? Hier erfahren Sie, wie Sie jede Option bewerten - und PR

Agi und KI -Superintelligenz werden die Annahmesperre der menschlichen Decke stark treffen Agi und KI -Superintelligenz werden die Annahmesperre der menschlichen Decke stark treffen Jul 04, 2025 am 11:10 AM

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -Säulenberichterstattung über die neueste in der KI, einschließlich der Identifizierung und Erklärung verschiedener wirksamer KI -Komplexitäten (siehe Link hier). Auf dem Weg zu Agi und

Kimi K2: Das mächtigste Open-Source-Agentenmodell Kimi K2: Das mächtigste Open-Source-Agentenmodell Jul 12, 2025 am 09:16 AM

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gestört haben? Während Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Zukünftige Vorhersage einer massiven Intelligenz -Explosion auf dem Weg von AI zu AGI Zukünftige Vorhersage einer massiven Intelligenz -Explosion auf dem Weg von AI zu AGI Jul 02, 2025 am 11:19 AM

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -Säulenberichterstattung über die neueste in der KI, einschließlich der Identifizierung und Erklärung verschiedener wirksamer KI -Komplexitäten (siehe Link hier). Für diejenigen Leser, die h

Grok 4 gegen Claude 4: Was ist besser? Grok 4 gegen Claude 4: Was ist besser? Jul 12, 2025 am 09:37 AM

Bis Mitte 2025 heizt sich das KI „Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 veröffentlicht. Diese beiden Modelle befinden

Kette von Gedanken zum Argumentieren von Modellen kann langfristig nicht funktionieren Kette von Gedanken zum Argumentieren von Modellen kann langfristig nicht funktionieren Jul 02, 2025 am 11:18 AM

Wenn Sie beispielsweise einem Modell eine Frage wie: "Was macht (x) Person bei (x) Firma?" Möglicherweise sehen Sie eine Argumentationskette, die ungefähr so ​​aussieht, vorausgesetzt, das System weiß, wie man die erforderlichen Informationen abgerufen: Details zum CO finden

Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning Batch-Verarbeitung gegen Mini-Batch-Training im Deep Learning Jun 30, 2025 am 09:46 AM

Deep Learning hat das KI-Feld revolutioniert, indem Maschinen in unseren Daten eingehendere Informationen erfassen können. Deep Learning war in der Lage, dies zu tun, indem er replizierte, wie unser Gehirn durch die Logik von Neuron Syna funktioniert

Dieses Startup baute ein Krankenhaus in Indien, um seine KI -Software zu testen Dieses Startup baute ein Krankenhaus in Indien, um seine KI -Software zu testen Jul 02, 2025 am 11:14 AM

Klinische Studien sind ein enormer Engpass in der Arzneimittelentwicklung, und Kim und Reddy glaubten, dass die AI-fähige Software, die sie bei PI Health gebaut hatten, dazu beitragen könnte, sie schneller und billiger zu machen, indem sie den Pool potenziell berechtigter Patienten erweitert. Aber die

See all articles