Con trăn 1e10

Một vị trí mà kết quả được lưu trữ. Nếu được cung cấp, nó phải có hình dạng mà đầu vào phát tới. Nếu không được cung cấp hoặc Không có, một mảng mới được phân bổ sẽ được trả về. Một bộ (chỉ có thể là đối số từ khóa) phải có độ dài bằng với số lượng đầu ra

ở đâu array_like, tùy chọn

Điều kiện này được phát qua đầu vào. Tại các vị trí có điều kiện là True, mảng out sẽ được đặt thành kết quả ufunc. Ở những nơi khác, mảng out sẽ giữ nguyên giá trị ban đầu của nó. Lưu ý rằng nếu một mảng out chưa được khởi tạo được tạo thông qua out=None mặc định, các vị trí trong đó có điều kiện là Sai sẽ vẫn chưa được khởi tạo

**kwargs

Đối với các đối số chỉ từ khóa khác, hãy xem phần

Trả về . ra ndarray hoặc vô hướng

Cấp số nhân theo cấp số nhân trừ một. out = exp(x) - 1. Đây là một số vô hướng nếu x là một số vô hướng

Xem thêm

log(1 + x), nghịch đảo của expm1

ghi chú

Hàm này cung cấp độ chính xác cao hơn exp(x) - 1 đối với các giá trị nhỏ của x

ví dụ

Giá trị thực của exp(1e-10) - 11.00000000005e-10 với khoảng 32 chữ số có nghĩa. Ví dụ này cho thấy tính ưu việt của expm1 trong trường hợp này

Việc triển khai dựa trên libsvm. Tỷ lệ thời gian phù hợp ít nhất là bậc hai với số lượng mẫu và có thể không thực tế ngoài hàng chục nghìn mẫu. Đối với các bộ dữ liệu lớn, hãy cân nhắc sử dụng hoặc thay vào đó, có thể sau một máy biến áp hoặc

Hỗ trợ đa lớp được xử lý theo sơ đồ một đối một

Để biết chi tiết về công thức toán học chính xác của các hàm hạt nhân được cung cấp và cách gamma, coef0degree ảnh hưởng lẫn nhau, hãy xem phần tương ứng trong tài liệu tường thuật.

Đọc thêm trong

Thông số . C thả nổi, mặc định = 1. 0

Tham số chính quy. Độ mạnh của chính quy hóa tỷ lệ nghịch với C. Phải nghiêm túc tích cực. Hình phạt là hình phạt l2 bình phương

kernel {'linear', 'poly', 'rbf', 'sigmoid', 'precomputed'} hoặc có thể gọi được, default='rbf'

Chỉ định loại hạt nhân sẽ được sử dụng trong thuật toán. Nếu không có gì được đưa ra, 'rbf' sẽ được sử dụng. Nếu một khả năng gọi được đưa ra, nó được sử dụng để tính toán trước ma trận hạt nhân từ ma trận dữ liệu;

độ int, mặc định=3

Bậc của hàm nhân đa thức ('poly'). Phải không âm. Bỏ qua bởi tất cả các hạt nhân khác

gamma {'scale', 'auto'} hoặc float, default='scale'

Hệ số hạt nhân cho 'rbf', 'poly' và 'sigmoid'

  • nếu

    >>> print(clf.predict([[-0.8, -1]]))
    [1]
    
    0 (mặc định) được chuyển thì nó sử dụng 1 / (n_features * X. var()) làm giá trị của gamma,

  • nếu 'tự động', sử dụng 1 / n_features

  • nếu float, phải không âm

Đã thay đổi trong phiên bản 0. 22. Giá trị mặc định của gamma đã thay đổi từ ‘auto’ thành ‘scale’.

coef0 thả nổi, mặc định = 0. 0

Thuật ngữ độc lập trong hàm kernel. Nó chỉ có ý nghĩa trong 'poly' và 'sigmoid'

đang thu hẹp bool, mặc định=True

Có nên sử dụng heuristic thu hẹp hay không. xem

xác suất bool, mặc định=Sai

Có bật ước tính xác suất hay không. Điều này phải được kích hoạt trước khi gọi

>>> print(clf.predict([[-0.8, -1]]))
[1]
2, sẽ làm chậm phương thức đó vì nó sử dụng xác thực chéo 5 lần trong nội bộ và
>>> print(clf.predict([[-0.8, -1]]))
[1]
3 có thể không phù hợp với
>>> print(clf.predict([[-0.8, -1]]))
[1]
4. Đọc thêm trong

tol thả nổi, mặc định=1e-3

Dung sai cho tiêu chí dừng

cache_size thả nổi, mặc định = 200

Chỉ định kích thước của bộ đệm kernel (tính bằng MB)

class_weight dict hoặc 'cân bằng', mặc định=Không có

Đặt tham số C của lớp i thành class_weight[i]*C cho SVC. Nếu không được cung cấp, tất cả các lớp được cho là có trọng số một. Chế độ “cân bằng” sử dụng các giá trị của y để tự động điều chỉnh các trọng số tỷ lệ nghịch với tần suất lớp trong dữ liệu đầu vào là

>>> print(clf.predict([[-0.8, -1]]))
[1]
5

dài dòng bool, mặc định=Sai

Bật đầu ra dài dòng. Lưu ý rằng cài đặt này tận dụng cài đặt thời gian chạy theo quy trình trong libsvm, nếu được bật, có thể không hoạt động bình thường trong ngữ cảnh đa luồng

max_iter int, mặc định=-1

Giới hạn cứng đối với các lần lặp trong bộ giải hoặc -1 không giới hạn

decision_function_shape {'ovo', 'ovr'}, default='ovr'

Có trả về hàm quyết định một chọi một ('ovr') của hình dạng (n_samples, n_classes) như tất cả các bộ phân loại khác hay hàm quyết định một chọi một ('ovo') ban đầu của libsvm có hình dạng (n_samples . Tuy nhiên, lưu ý rằng trong nội bộ, một đối một ('ovo') luôn được sử dụng như một chiến lược nhiều lớp để đào tạo người mẫu; . Tham số bị bỏ qua để phân loại nhị phân

Đã thay đổi trong phiên bản 0. 19. decision_function_shape là 'ovr' theo mặc định.

Mới trong phiên bản 0. 17. decision_function_shape=’ovr’ được đề xuất.

Đã thay đổi trong phiên bản 0. 17. Không dùng nữa Decision_function_shape=’ovo’ và Không.

break_ties bool, mặc định=Sai

Nếu đúng,

>>> print(clf.predict([[-0.8, -1]]))
[1]
6 và số lớp > 2, sẽ phá vỡ mối quan hệ theo các giá trị độ tin cậy của ; . Xin lưu ý rằng việc phá vỡ mối quan hệ có chi phí tính toán tương đối cao so với dự đoán đơn giản

Mới trong phiên bản 0. 22

random_state int, thể hiện RandomState hoặc Không, mặc định=Không

Kiểm soát việc tạo số giả ngẫu nhiên để xáo trộn dữ liệu cho các ước tính xác suất. Bị bỏ qua khi

>>> print(clf.predict([[-0.8, -1]]))
[1]
7 là Sai. Truyền int cho đầu ra có thể lặp lại qua nhiều lệnh gọi hàm. Nhìn thấy

Thuộc tính . class_weight_ ndarray của hình dạng (n_classes,)

Hệ số nhân của tham số C cho mỗi lớp. Được tính toán dựa trên tham số

>>> print(clf.predict([[-0.8, -1]]))
[1]
8

classes_ ndarray của hình dạng (n_classes,)

Các nhãn lớp

ndarray của hình dạng (n_classes * (n_classes - 1)/2, n_features)

Trọng số được gán cho các tính năng khi sklearn.svm0

dual_coef_ ndarray của hình dạng (n_classes -1, n_SV)

Các hệ số kép của vectơ hỗ trợ trong hàm quyết định (xem ), nhân với mục tiêu của chúng. Đối với nhiều lớp, hệ số cho tất cả các bộ phân loại 1 đối 1. Cách bố trí các hệ số trong trường hợp đa lớp có phần không tầm thường. Xem chi tiết

fit_status_ int

0 nếu được lắp đúng, 1 nếu không (sẽ tăng cảnh báo)

chặn_ ndarray của hình dạng (n_classes * (n_classes - 1)/2,)

Các hằng trong hàm quyết định

n_features_in_ int

Số lượng các tính năng nhìn thấy trong

Mới trong phiên bản 0. 24

feature_names_in_ ndarray của hình dạng (sklearn.svm1,)

Tên của các tính năng nhìn thấy trong quá trình. Chỉ được xác định khi sklearn.svm2 có tên đối tượng là tất cả các chuỗi

Mới trong phiên bản 1. 0

n_iter_ ndarray của hình dạng (n_classes * (n_classes - 1) // 2,)

Số lần lặp được thực hiện bởi quy trình tối ưu hóa để phù hợp với mô hình. Hình dạng của thuộc tính này phụ thuộc vào số lượng mô hình được tối ưu hóa, do đó phụ thuộc vào số lượng lớp

Mới trong phiên bản 1. 1

support_ ndarray của hình dạng (n_SV)

Chỉ số của vectơ hỗ trợ

support_vectors_ ndarray của hình dạng (n_SV, n_features)

Hỗ trợ vectơ

ndarray của hình dạng (n_classes,), dtype=int32

Số lượng vectơ hỗ trợ cho mỗi lớp

ndarray của hình dạng (n_classes * (n_classes - 1)/2)

Tham số đã học trong quy mô Platt khi sklearn.svm5

ndarray của hình dạng (n_classes * (n_classes - 1)/2)

Tham số đã học trong quy mô Platt khi sklearn.svm5

shape_fit_ bộ int của hình dạng (n_dimensions_of_X,)

Kích thước mảng của vectơ huấn luyện sklearn.svm2

Xem thêm

Máy Vector hỗ trợ hồi quy được triển khai bằng libsvm

Máy vectơ hỗ trợ tuyến tính có thể mở rộng để phân loại được triển khai bằng liblinear. Kiểm tra phần Xem thêm của LinearSVC để biết thêm yếu tố so sánh

Người giới thiệu

[ 1 ]

LIBSVM. Thư viện cho các máy vectơ hỗ trợ

[ 2 ]

Platt, John (1999). “Kết quả đầu ra xác suất cho các máy vectơ hỗ trợ và so sánh với các phương pháp xác suất chính quy”

ví dụ

________số 8_______

>>> print(clf.predict([[-0.8, -1]]))
[1]

phương pháp

(X)

Đánh giá hàm quyết định cho các mẫu trong X

(X, y[, sample_weight])

Điều chỉnh mô hình SVM theo dữ liệu đào tạo đã cho

([sâu])

Nhận thông số cho công cụ ước tính này

(X)

Thực hiện phân loại trên các mẫu trong X

(X)

Tính xác suất nhật ký của các kết quả có thể xảy ra đối với các mẫu trong X

(X)

Tính xác suất của các kết quả có thể xảy ra đối với các mẫu trong X

(X, y[, sample_weight])

Trả về độ chính xác trung bình trên dữ liệu thử nghiệm đã cho và nhãn

(**thông số)

Đặt các tham số của công cụ ước tính này

thuộc tính coef_

Trọng số được gán cho các tính năng khi sklearn.svm0

Trả về . dàn hình dạng (n_tính năng, n_lớp) hàm quyết định(X)

Đánh giá hàm quyết định cho các mẫu trong X

Thông số . X hình dạng giống như mảng (n_samples, n_features)

Các mẫu đầu vào

Trả về . X ndarray của hình dạng (n_samples, n_classes * (n_classes-1)/2)

Trả về hàm quyết định của mẫu cho mỗi lớp trong mô hình. Nếu quyết định_function_shape=’ovr’, hình dạng là (n_samples, n_classes)

ghi chú

Nếu quyết định_function_shape=’ovo’, các giá trị của hàm tỷ lệ với khoảng cách của các mẫu X tới siêu phẳng phân tách. Nếu khoảng cách chính xác được yêu cầu, hãy chia các giá trị hàm cho định mức của vectơ trọng số (

>>> print(clf.predict([[-0.8, -1]]))
[1]
9). Xem thêm câu hỏi này để biết thêm chi tiết. Nếu Decision_function_shape=’ovr’, thì hàm quyết định là phép biến đổi đơn điệu của hàm quyết định ovo

phù hợp(X , y , sample_weight=Không có)

Điều chỉnh mô hình SVM theo dữ liệu đào tạo đã cho

Thông số . X {dạng mảng, ma trận thưa thớt} có dạng (n_samples, n_features) hoặc (n_samples, n_samples)

Các vectơ đào tạo, trong đó SGDClassifier1 là số lượng mẫu và SGDClassifier2 là số lượng tính năng. Đối với kernel=”precomputed”, hình dạng dự kiến ​​của X là (n_samples, n_samples)

y hình dạng giống như mảng (n_samples,)

Giá trị mục tiêu (nhãn lớp trong phân loại, số thực trong hồi quy)

sample_weight hình dạng giống như mảng (n_samples,), default=None

trọng lượng mỗi mẫu. Thay đổi tỷ lệ C trên mỗi mẫu. Trọng số cao hơn buộc bộ phân loại phải nhấn mạnh hơn vào những điểm này

Trả về . bản thân sự vật

công cụ ước tính được trang bị

ghi chú

Nếu X và y không phải là mảng thứ tự C và liền kề của np. float64 và X không phải là scipy. thưa thớt. csr_matrix, X và/hoặc y có thể được sao chép

Nếu X là một mảng dày đặc, thì các phương thức khác sẽ không hỗ trợ ma trận thưa thớt làm đầu vào

get_params(deep=Đúng)

Nhận thông số cho công cụ ước tính này

Thông số . deep bool, mặc định=True

Nếu Đúng, sẽ trả về các tham số cho công cụ ước tính này và chứa các đối tượng con là công cụ ước tính

Trả về . params mệnh lệnh

Tên tham số được ánh xạ tới giá trị của chúng

thuộc tính n_support_

Số lượng vectơ hỗ trợ cho mỗi lớp

dự đoán(X)

Thực hiện phân loại trên các mẫu trong X

Đối với mô hình một lớp, +1 hoặc -1 được trả về

Thông số . X {dạng mảng, ma trận thưa thớt} có hình dạng (n_samples, n_features) hoặc (n_samples_test, n_samples_train)

Đối với kernel=”precomputed”, hình dạng dự kiến ​​của X là (n_samples_test, n_samples_train)

Trả về . y_pred ndarray của hình dạng (n_samples,)

Nhãn lớp cho các mẫu trong X

predict_log_proba(X)

Tính xác suất nhật ký của các kết quả có thể xảy ra đối với các mẫu trong X

Mô hình cần có thông tin xác suất được tính toán tại thời điểm đào tạo. phù hợp với thuộc tính

>>> print(clf.predict([[-0.8, -1]]))
[1]
7 được đặt thành True

Thông số . X hình dạng giống như mảng (n_samples, n_features) hoặc (n_samples_test, n_samples_train)

Đối với kernel=”precomputed”, hình dạng dự kiến ​​của X là (n_samples_test, n_samples_train)

Trả về . T ndarray của hình dạng (n_samples, n_classes)

Trả về xác suất nhật ký của mẫu cho mỗi lớp trong mô hình. Các cột tương ứng với các lớp theo thứ tự được sắp xếp, khi chúng xuất hiện trong thuộc tính

ghi chú

Mô hình xác suất được tạo bằng xác thực chéo, do đó, kết quả có thể hơi khác so với kết quả thu được bằng cách dự đoán. Ngoài ra, nó sẽ tạo ra kết quả vô nghĩa trên các tập dữ liệu rất nhỏ

predict_proba(X)

Tính xác suất của các kết quả có thể xảy ra đối với các mẫu trong X

Mô hình cần có thông tin xác suất được tính toán tại thời điểm đào tạo. phù hợp với thuộc tính

>>> print(clf.predict([[-0.8, -1]]))
[1]
7 được đặt thành True

Thông số . X hình dạng giống như mảng (n_samples, n_features)

Đối với kernel=”precomputed”, hình dạng dự kiến ​​của X là (n_samples_test, n_samples_train)

Trả về . T ndarray của hình dạng (n_samples, n_classes)

Trả về xác suất của mẫu cho mỗi lớp trong mô hình. Các cột tương ứng với các lớp theo thứ tự được sắp xếp, khi chúng xuất hiện trong thuộc tính

ghi chú

Mô hình xác suất được tạo bằng xác thực chéo, do đó, kết quả có thể hơi khác so với kết quả thu được bằng cách dự đoán. Ngoài ra, nó sẽ tạo ra kết quả vô nghĩa trên các tập dữ liệu rất nhỏ

thuộc tính thăm dòA_

Tham số đã học trong quy mô Platt khi sklearn.svm5

Trả về . ndarray of shape (n_classes * (n_classes - 1) / 2) thuộc tính vấn đềB_

Tham số đã học trong quy mô Platt khi sklearn.svm5

Trả về . ndarray of shape (n_classes * (n_classes - 1) / 2) điểm(X , y , sample_weight=Không có)

Trả về độ chính xác trung bình trên dữ liệu thử nghiệm đã cho và nhãn

Trong phân loại nhiều nhãn, đây là độ chính xác của tập hợp con, đây là một chỉ số khắc nghiệt vì bạn yêu cầu đối với mỗi mẫu, mỗi bộ nhãn phải được dự đoán chính xác

Thông số . X hình dạng giống như mảng (n_samples, n_features)

Mẫu thử nghiệm

y giống như mảng của hình dạng (n_samples,) hoặc (n_samples, n_outputs)

Nhãn đúng cho sklearn.svm2

sample_weight hình dạng giống như mảng (n_samples,), default=None

trọng lượng mẫu

Trả về . điểm trôi nổi

Độ chính xác trung bình của SGDClassifier8 wrt. SGDClassifier9

set_params(**tham số)

Đặt các tham số của công cụ ước tính này

Phương pháp này hoạt động trên các công cụ ước tính đơn giản cũng như trên các đối tượng lồng nhau (chẳng hạn như ). Cái sau có các tham số dạng Nystroem1 để có thể cập nhật từng thành phần của một đối tượng lồng nhau

1e 10 nghĩa là gì?

1e 10 sẽ là 1 × 10^10 hoặc 10 tỷ .

1e10 là số mấy?

e10 được viết là 10000000000. ?

1e có nghĩa là gì trong Python?

Không là gì ngoài ký hiệu khoa học. Điều đó có nghĩa là 1 × 10−5 . Nói cách khác, 0. 00001.

1e 3 có nghĩa là gì trong Python?

Để chỉ định số dấu phẩy động, hãy bao gồm dấu thập phân ở đâu đó trong số hoặc sử dụng ký hiệu hàm mũ, ví dụ 1e3 hoặc 1E3 để biểu thị 1000 (1 nhân 10 mũ . .