Heim Backend-Entwicklung Python-Tutorial Die wichtigsten Fragen und Antworten zu Python-Machine-Learning-Interviews

Die wichtigsten Fragen und Antworten zu Python-Machine-Learning-Interviews

Sep 10, 2024 pm 08:31 PM

Top Python Machine Learning Interview Questions and Answers

Maschinelles Lernen (ML) ist einer der gefragtesten Bereiche in der Technologiebranche, und Kenntnisse in Python sind aufgrund der umfangreichen Bibliotheken und der Benutzerfreundlichkeit oft eine Voraussetzung. Wenn Sie sich auf ein Vorstellungsgespräch in diesem Bereich vorbereiten, ist es wichtig, dass Sie sich sowohl mit theoretischen Konzepten als auch mit der praktischen Umsetzung auskennen. Hier sind einige häufig gestellte Fragen und Antworten zu Python ML-Interviews, die Ihnen bei der Vorbereitung helfen sollen.

1. Mit welchen Vorverarbeitungstechniken in Python sind Sie am besten vertraut?

Vorverarbeitungstechniken sind für die Vorbereitung von Daten für Modelle des maschinellen Lernens unerlässlich. Zu den gebräuchlichsten Techniken gehören:

  • Normalisierung: Anpassen der Werte im Merkmalsvektor an einen gemeinsamen Maßstab, ohne Unterschiede in den Wertebereichen zu verzerren.
  • Dummy-Variablen: Verwendung von Pandas zum Erstellen von Indikatorvariablen (0 oder 1), die zeigen, ob eine kategoriale Variable einen bestimmten Wert annehmen kann.
  • Prüfung auf Ausreißer: Es können mehrere Methoden verwendet werden, darunter univariate, multivariate und Minkowski-Fehler.

Codebeispiel:

from sklearn.preprocessing import MinMaxScaler
import pandas as pd

# Data normalization
scaler = MinMaxScaler()
normalized_data = scaler.fit_transform(data)

# Creating dummy variables
df_with_dummies = pd.get_dummies(data, drop_first=True)

2. Was sind Brute-Force-Algorithmen? Geben Sie ein Beispiel.

Brute-Force-Algorithmen probieren ausgiebig alle Möglichkeiten aus, um eine Lösung zu finden. Ein häufiges Beispiel ist die lineare Suche, bei der der Algorithmus jedes Element eines Arrays überprüft, um eine Übereinstimmung zu finden.

Codebeispiel:

def linear_search(arr, target):
    for i in range(len(arr)):
        if arr[i] == target:
            return i
    return -1

# Example usage
arr = [2, 3, 4, 10, 40]
target = 10
result = linear_search(arr, target)

3. Welche Möglichkeiten gibt es, mit einem unausgeglichenen Datensatz umzugehen?

Ein unausgeglichener Datensatz hat die Klassenverhältnisse verzerrt. Zu den Strategien, um damit umzugehen, gehören:

  • Mehr Daten sammeln: Mehr Daten für die Minderheitenklasse sammeln.
  • Resampling: Entweder Überabtastung der Minderheitsklasse oder Unterabtastung der Mehrheitsklasse.
  • SMOTE (Synthetic Minority Oversampling Technique): Generieren synthetischer Stichproben für die Minderheitsklasse.
  • Algorithmusanpassungen: Verwendung von Algorithmen, die Ungleichgewichte bewältigen können, wie z. B. Bagging- oder Boosting-Methoden.

Codebeispiel:

from imblearn.over_sampling import SMOTE
from sklearn.model_selection import train_test_split

X_resampled, y_resampled = SMOTE().fit_resample(X, y)
X_train, X_test, y_train, y_test = train_test_split(X_resampled, y_resampled, test_size=0.2)

4. Welche Möglichkeiten gibt es, mit fehlenden Daten in Python umzugehen?

Übliche Strategien für den Umgang mit fehlenden Daten sind Auslassung und Zurechnung:

  • Auslassung: Zeilen oder Spalten mit fehlenden Werten entfernen.
  • Imputation: Auffüllen der fehlenden Werte mit Techniken wie Mittelwert, Median, Modus oder erweiterten Methoden wie SimpleImputer oder IterativeImputer.

Codebeispiel:

from sklearn.impute import SimpleImputer

# Imputing missing values
imputer = SimpleImputer(strategy='median')
data_imputed = imputer.fit_transform(data)

5. Was ist Regression? Wie würden Sie Regression in Python implementieren?

Regression ist eine überwachte Lerntechnik, die verwendet wird, um Korrelationen zwischen Variablen zu finden und Vorhersagen für abhängige Variablen zu treffen. Zu den gängigen Beispielen gehören die lineare Regression und die logistische Regression, die mit Scikit-learn implementiert werden können.

Codebeispiel:

from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split

# Split the dataset
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

# Create and train the model
model = LinearRegression()
model.fit(X_train, y_train)

# Make predictions
predictions = model.predict(X_test)

6. Wie teilt man Trainings- und Testdatensätze in Python auf?

In Python können Sie die Funktion train_test_split von Scikit-learn verwenden, um Ihre Daten in Trainings- und Testsätze aufzuteilen.

Codebeispiel:

from sklearn.model_selection import train_test_split

# Split the dataset: 60% training and 40% testing
X_train, X_test, y_train, y_test = train_test_split(data.data, data.target, test_size=0.4)

7. Welche Parameter sind für baumbasierte Lernende am wichtigsten?

Einige wichtige Parameter für baumbasierte Lernende sind:

  • max_ Depth: Maximale Tiefe pro Baum.
  • learning_rate: Schrittgröße bei jeder Iteration.
  • n_estim- **n_estimators: Anzahl der Bäume im Ensemble oder Anzahl der Boosting-Runden.
  • Teilstichprobe: Anteil der Beobachtungen, die für jeden Baum beprobt werden sollen.

Codebeispiel:

from sklearn.ensemble import RandomForestClassifier

# Setting parameters for Random Forest
model = RandomForestClassifier(max_depth=5, n_estimators=100, max_features='sqrt', random_state=42)
model.fit(X_train, y_train)

8. Was sind gängige Hyperparameter-Tuning-Methoden in Scikit-learn?

Zwei gängige Methoden zur Optimierung von Hyperparametern sind:

  • Rastersuche: Definiert ein Raster von Hyperparameterwerten und sucht nach der optimalen Kombination.
  • Zufallssuche: Verwendet eine breite Palette von Hyperparameterwerten und iteriert zufällig durch Kombinationen.

Codebeispiel:

from sklearn.model_selection import GridSearchCV, RandomizedSearchCV

# Grid Search
param_grid = {'n_estimators': [50, 100, 200], 'max_depth': [5, 10, 15]}
grid_search = GridSearchCV(model, param_grid, cv=5)
grid_search.fit(X_train, y_train)

# Random Search
param_dist = {'n_estimators': [50, 100, 200], 'max_depth': [5, 10, 15]}
random_search = RandomizedSearchCV(model, param_dist, n_iter=10, cv=5, random_state=42)
random_search.fit(X_train, y_train)

9. Schreiben Sie eine Funktion, um die mittlere Niederschlagsmenge für die Tage zu ermitteln, an denen es geregnet hat.

Sie müssen Tage ohne Regen entfernen und dann den Median ermitteln.

Codebeispiel:

def median_rainfall(df_rain):
    # Remove days with no rain
    df_rain_filtered = df_rain[df_rain['rainfall'] > 0]
    # Find the median amount of rainfall
    median_rainfall = df_rain_filtered['rainfall'].median()
    return median_rainfall

10. Schreiben Sie eine Funktion, um den Durchschnittspreis ausgewählter kalifornischer Käsesorten anstelle der fehlenden Werte zu berechnen.

Sie können Pandas verwenden, um den Medianwert zu berechnen und einzugeben.

Code Example:

def impute_median_price(df, column):
    median_price = df[column].median()
    df[column].fillna(median_price, inplace=True)
    return df

11. Write a Function to Return a New List Where All None Values Are Replaced with the Most Recent Non-None Value in the List.

Code Example:

def fill_none(input_list):
    prev_value = None
    result = []
    for value in input_list:
        if value is None:
            result.append(prev_value)
        else:
            result.append(value)
            prev_value = value
    return result

12. Write a Function Named grades_colors to Select Only the Rows Where the Student’s Favorite Color is Green or Red and Their Grade is Above 90.

Code Example:

def grades_colors(df_students):
    filtered_df = df_students[(df_students["grade"] > 90) & (df_students["favorite_color"].isin(["green", "red"]))]
    return filtered_df

13. Calculate the t-value for the Mean of ‘var’ Against a Null Hypothesis That μ = μ_0.

Code Example:

import pandas as pd
from scipy import stats

def calculate_t_value(df, column, mu_0):
    sample_mean = df[column].mean()
    sample_std = df[column].std()
    n = len(df)

    t_value = (sample_mean - mu_0) / (sample_std / (n ** 0.5))
    return t_value

# Example usage
t_value = calculate_t_value(df, 'var', mu_0)
print(t_value)

14. Build a K-Nearest Neighbors Classification Model from Scratch.

Code Example:

import numpy as np
import pandas as pd

def euclidean_distance(point1, point2):
    return np.sqrt(np.sum((point1 - point2) ** 2))

def kNN(k, data, new_point):
    distances = data.apply(lambda row: euclidean_distance(row[:-1], new_point), axis=1)
    sorted_indices = distances.sort_values().index
    top_k = data.iloc[sorted_indices[:k]]

    return top_k['label'].mode()[0]

# Example usage
data = pd.DataFrame({
    'feature1': [1, 2, 3, 4],
    'feature2': [2, 3, 4, 5],
    'label': [0, 0, 1, 1]
})

new_point = [2.5, 3.5]
k = 3

result = kNN(k, data, new_point)
print(result)

15. Build a Random Forest Model from Scratch.

Note: This example uses simplified assumptions to meet the interview constraints.

Code Example:

import pandas as pd
import numpy as np

def create_tree(dataframe, new_point):
    unique_classes = dataframe['class'].unique()
    for col in dataframe.columns[:-1]:  # Exclude the 'class' column
        if new_point[col] == 1:
            sub_data = dataframe[dataframe[col] == 1]
            if len(sub_data) > 0:
                return sub_data['class'].mode()[0]
    return unique_classes[0]  # Default to the most frequent class

def random_forest(df, new_point, n_trees):
    results = []
    for _ in range
n_trees):
        tree_result = create_tree(df, new_point)
        results.append(tree_result)
    # Majority vote
    return max(set(results), key=results.count)

# Example usage
df = pd.DataFrame({
    'feature1': [0, 1, 1, 0],
    'feature2': [0, 0, 1, 1],
    'class': [0, 1, 1, 0]
})

new_point = {'feature1': 1, 'feature2': 0}
n_trees = 5

result = random_forest(df, new_point, n_trees)
print(result)

16. Build a Logistic Regression Model from Scratch.

Code Example:

import pandas as pd
import numpy as np

def sigmoid(z):
    return 1 / (1 + np.exp(-z))

def logistic_regression(X, y, num_iterations, learning_rate):
    weights = np.zeros(X.shape[1])
    for i in range(num_iterations):
        z = np.dot(X, weights)
        predictions = sigmoid(z)
        errors = y - predictions
        gradient = np.dot(X.T, errors)

gradient = np.dot(X.T, errors)
        weights += learning_rate * gradient
    return weights

# Example usage
df = pd.DataFrame({
    'feature1': [0, 1, 1, 0],
    'feature2': [0, 0, 1, 1],
    'class': [0, 1, 1, 0]
})

X = df[['feature1', 'feature2']].values
y = df['class'].values
num_iterations = 1000
learning_rate = 0.01

weights = logistic_regression(X, y, num_iterations, learning_rate)
print(weights)

17. Build a K-Means Algorithm from Scratch.

Code Example:

import numpy as np

def k_means(data_points, k, initial_centroids):
    centroids = initial_centroids
    while True:
        distances = np.linalg.norm(data_points[:, np.newaxis] - centroids, axis=2)
        clusters = np.argmin(distances, axis=1)
        new_centroids = np.array([data_points[clusters == i].mean(axis=0) for i in range(k)])        

        if np.all(centroids == new_centroids):
            break
        centroids = new_centroids
    return clusters

# Example usage
data_points = np.array([[1, 2], [1, 4], [1, 0], [10, 2], [10, 4], [10, 0]])
k = 2
initial_centroids = np.array([[1, 2], [10, 2]])

clusters = k_means(data_points, k, initial_centroids)
print(clusters)

18. What is Machine Learning and How Does it Work?

Machine Learning is a field of artificial intelligence focused on building algorithms that enable computers to learn from data without explicit programming. It uses algorithms to analyze and identify patterns in data and make predictions based on those patterns.

Example Answer:

"Machine learning is a branch of artificial intelligence that involves creating algorithms capable of learning from and making predictions based on data. It works by training a model on a dataset and then using that model to make predictions on new data."

19. What are the Different Types of Machine Learning Algorithms?

There are three main types of machine learning algorithms:

  • Supervised Learning: Useslabeled data and makes predictions based on this information. Examples include linear regression and classification algorithms.

  • Unsupervised Learning: Processes unlabeled data and seeks to find patterns or relationships in it. Examples include clustering algorithms like K-means.

  • Reinforcement Learning: The algorithm learns from interacting with its environment, receiving rewards or punishments for certain actions. Examples include training AI agents in games.

Example Answer:

"There are three main types of machine learning algorithms: supervised learning, unsupervised learning, and reinforcement learning. Supervised learning uses labeled data to make predictions, unsupervised learning finds patterns in unlabeled data, and reinforcement learning learns from interactions with the environment to maximize rewards."

20. What is Cross-Validation and Why is it Important in Machine Learning?

Cross-validation is a technique to evaluate the performance of a machine learning model by dividing the dataset into two parts: a training set and a validation set. The training set trains the model, whereas the validation set evaluates it.

Importance:

  • Prevents overfitting by ensuring the model generalizes well to unseen data.
  • Provides a more accurate measure of model performance.

Example Answer:

"Cross-validation is a technique used to evaluate a machine learning model'sperformance by dividing the dataset into training and validation sets. It helps ensure the model generalizes well to new data, preventing overfitting and providing a more accurate measure of performance."

21. What is an Artificial Neural Network and How Does it Work?

Artificial Neural Networks (ANNs) are models inspired by the human brain's structure. They consist of layers of interconnected nodes (neurons) that process input data and generate output predictions.

Example Answer:

"An artificial neural network is a machine learning model inspired by the structure and function of the human brain. It comprises layers of interconnected neurons that process input data through weighted connections to make predictions."

22. What is a Decision Tree and How to Use it in Machine Learning?

Decision Trees are models for classification and regression tasks that split data into subsets based on the values of input variables to generate prediction rules.

Example Answer:

"A decision tree is a tree-like model used for classification and regression tasks. It works by recursively splitting data into subsets based on input variables, creating rules for making predictions."

23. What is the K-Nearest Neighbors (KNN) Algorithm and How Does it Work?

K-Nearest Neighbors (KNN) is a simple machine learning algorithm usedfor classification or regression tasks. It determines the k closest data points in the feature space to a given unseen data point and classifies it based on the majority class of its k nearest neighbors.

Example Answer:

"The K-Nearest Neighbors (KNN) algorithm is a machine learning technique used for classification or regression. It works by identifying the k closest data points to a given point in the feature space and classifying it based on the majority class among the k nearest neighbors."

24. What is the Support Vector Machine Algorithm and How Does it Work?

Support Vector Machines (SVM) are linear models used for binary classification and regression tasks. They find the most suitable boundary (hyperplane) that separates data into classes. Data points closest to the hyperplane, called support vectors, play a critical role in defining this boundary.

Example Answer:

"The Support Vector Machine (SVM) algorithm is a linear model used for binary classification and regression tasks. It identifies the best hyperplane that separates data into classes, relying heavily on the data points closest to the hyperplane, known as support vectors."

25. What is Regularization, and How Do You Use it in Machine Learning?

Regularization is a technique to prevent overfitting in machinelearning models by adding a penalty term to the loss function. This penalty discourages the model from learning overly complex relationships in the data.

Example Answer:

"Regularization is a technique to prevent overfitting in machine learning models by adding a penalty term to the loss function, which discourages the model from learning overly complex patterns. Common types of regularization include L1 (Lasso) and L2 (Ridge) regularization."

Code Example:

from sklearn.linear_model import Ridge

# Applying L2 Regularization (Ridge Regression)
ridge_model = Ridge(alpha=1.0)
ridge_model.fit(X_train, y_train)

26. Can You Explain How Gradient Descent Works?

Gradient Descent is an optimization algorithm used to minimize a cost function in machine learning. It iteratively adjusts the parameters of the model in the direction of the negative gradient of the cost function until it reaches a minimum.

Example Answer:

"Gradient Descent is an optimization algorithm used to minimize a cost function in machine learning. It iteratively updates the model parameters in the direction of the negative gradient of the cost function, aiming to find the parameters that minimize the cost."

27. Can You Explain the Concept of Ensemble Learning

Ensemble Learning is a technique where multiple models (often called "weak learners") are combined to solve a prediction task. The combined model is generally more robust and performs better than individual models.

Example Answer:

"Ensemble learning is a machine learning technique where multiple models are combined to solve a prediction task. Common ensemble methods include bagging, boosting, and stacking. Combining the predictions of individual models can improve performance and reduce the risk of overfitting."

Example Code for Random Forest (an ensemble method):

from sklearn.ensemble import RandomForestClassifier

# Ensemble learning using Random Forest
model = RandomForestClassifier(n_estimators=100, max_depth=10, random_state=42)
model.fit(X_train, y_train)
predictions = model.predict(X_test)

Conclusion

Preparing for a Python machine learning interview involves understanding both theoretical concepts and practical implementations. This guide has covered several essential questions and answers that frequently come up in interviews. By familiarizing yourself with these topics and practicing the provided code examples, you'll be well-equipped to handle a wide range of questions in your next machine learning interview. Good luck!

Visit MyExamCloud and see the most recent Python Certification Practice Tests. Begin creating your Study Plan today.

Das obige ist der detaillierte Inhalt vonDie wichtigsten Fragen und Antworten zu Python-Machine-Learning-Interviews. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Stock Market GPT

Stock Market GPT

KI-gestützte Anlageforschung für intelligentere Entscheidungen

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

So installieren Sie Pakete aus einer Anforderungen.txt -Datei in Python So installieren Sie Pakete aus einer Anforderungen.txt -Datei in Python Sep 18, 2025 am 04:24 AM

Führen Sie Pipinstall-Rrequirements.txt aus, um das Abhängigkeitspaket zu installieren. Es wird empfohlen, zunächst die virtuelle Umgebung zu erstellen und zu aktivieren, um Konflikte zu vermeiden, sicherzustellen, dass der Dateipfad korrekt ist und dass die PIP aktualisiert wurde, und Optionen wie-No-Deps oder -User, um das Installationsverhalten bei Bedarf anzupassen.

Effiziente Zusammenführungsstrategie des PEFT LORA -Adapters und des Basismodells Effiziente Zusammenführungsstrategie des PEFT LORA -Adapters und des Basismodells Sep 19, 2025 pm 05:12 PM

In diesem Tutorial wird beschrieben, wie der PEFT LORA -Adapter mit dem Basismodell effizient zusammengeführt werden kann, um ein völlig unabhängiges Modell zu generieren. Der Artikel weist darauf hin, dass es falsch ist, Transformatoren direkt zu verwenden. Automodel zum Laden des Adapters und zum manuellen Zusammenführen der Gewichte und bietet den richtigen Prozess zur Verwendung der Methode merge_and_unload in der PEFT -Bibliothek. Darüber hinaus unterstreicht das Tutorial auch die Bedeutung des Umgangs mit Word -Segmentern und diskutiert die Kompatibilität und Lösungen von PEFT -Versionen.

So testen Sie Python -Code mit PyTest So testen Sie Python -Code mit PyTest Sep 20, 2025 am 12:35 AM

Python ist ein einfaches und leistungsstarkes Testwerkzeug in Python. Nach der Installation werden Testdateien automatisch gemäß den Namensregeln ermittelt. Schreiben Sie eine Funktion, die mit Test_ für Assertionstests beginnt, verwenden Sie @PyTest.Fixure, um wiederverwendbare Testdaten zu erstellen, die Ausnahmen über pyTest.raises zu überprüfen, unterstützt die laufenden Tests und mehrere Befehlszeilenoptionen und verbessert die Testeneffizienz.

So behandeln Sie Befehlszeilenargumente in Python So behandeln Sie Befehlszeilenargumente in Python Sep 21, 2025 am 03:49 AM

TheArgParSemoduleiTherecommendedwaytoHandleCommand-Lineargumentesinpython, das Robustparsing, Typevalidation, Helpsages, AndersHandling berücksichtigt; usesys.argvForSimpecaseSeRequiringMinimalsetup.

Problemgenauigkeitsproblem der Punktzahl in Python und seinem Berechnungsschema mit hoher Präzisionszahlen Problemgenauigkeitsproblem der Punktzahl in Python und seinem Berechnungsschema mit hoher Präzisionszahlen Sep 19, 2025 pm 05:57 PM

Dieser Artikel zielt darauf ab, das gemeinsame Problem der unzureichenden Berechnungsgenauigkeit der schwimmenden Punktzahlen in Python und Numpy zu untersuchen, und erklärt, dass seine Grundursache in der Darstellungsbeschränkung der Standardzahlen der 64-Bit-Schwimmpunkte liegt. Für Computerszenarien, die eine höhere Genauigkeit erfordern, wird der Artikel die Nutzungsmethoden, -funktionen und anwendbaren Szenarien von mathematischen Bibliotheken mit hoher Präzision einführen und vergleichen

So arbeiten Sie mit PDF -Dateien in Python So arbeiten Sie mit PDF -Dateien in Python Sep 20, 2025 am 04:44 AM

PYPDF2, PDFPLUMBER und FPDF sind die Kernbibliotheken für Python, um PDF zu verarbeiten. Verwenden Sie PYPDF2, um die Textextraktion, das Zusammenführen, die Aufteilung und die Verschlüsselung durchzuführen, z. PDFPLUMBER eignet sich besser zum Aufbewahren von Layout -Textextraktion und Tabellenerkennung und unterstützt extract_tables (), um Tabellendaten genau zu erfassen. FPDF (empfohlene FPDF2) wird zum Generieren von PDF verwendet, und es werden Dokumente erstellt und über add_page (), set_font () und cell () ausgegeben. Beim Zusammenführen von PDFs kann die append () -Methode von PDFWriter mehrere Dateien integrieren

Python bekommen aktuelles Beispiel Beispiel Python bekommen aktuelles Beispiel Beispiel Sep 15, 2025 am 02:32 AM

Die aktuelle Zeit kann in Python über das DateTime -Modul implementiert werden. 1. Verwenden Sie datetime.now (), um die lokale aktuelle Zeit zu erhalten, 2. verwenden Strftime ("%y-%M-%d%H:%m:%s"), um das Ausgabejahr, den Monat, den Tag, die Stunde, die Minute und die zweite, zu formatieren. UTCNOW () und tägliche Operationen können die Anforderungen erfüllen, indem datetime.now () mit formatierten Zeichenfolgen kombiniert werden.

Wie können Sie einen Kontextmanager mit dem @ContextManager -Dekorateur in Python erstellen? Wie können Sie einen Kontextmanager mit dem @ContextManager -Dekorateur in Python erstellen? Sep 20, 2025 am 04:50 AM

Importieren Sie@contextManagerfromContextLibanddefinaGeneratorFunctionThatyieldSexactlyonce, whercodeBeforyieldactsasenterandCodeafteryield (vorzugsweise infinal) actsas __exit __. 2.UsetheFunctionInaThstatement, wherheided ValuesieScessable

See all articles