Con trăn 1e10
Một vị trí mà kết quả được lưu trữ. Nếu được cung cấp, nó phải có hình dạng mà đầu vào phát tới. Nếu không được cung cấp hoặc Không có, một mảng mới được phân bổ sẽ được trả về. Một bộ (chỉ có thể là đối số từ khóa) phải có độ dài bằng với số lượng đầu ra Show Điều kiện này được phát qua đầu vào. Tại các vị trí có điều kiện là True, mảng out sẽ được đặt thành kết quả ufunc. Ở những nơi khác, mảng out sẽ giữ nguyên giá trị ban đầu của nó. Lưu ý rằng nếu một mảng out chưa được khởi tạo được tạo thông qua Đối với các đối số chỉ từ khóa khác, hãy xem phần Trả về . ra ndarray hoặc vô hướngCấp số nhân theo cấp số nhân trừ một. Xem thêm
ghi chú Hàm này cung cấp độ chính xác cao hơn ví dụ Giá trị thực của Việc triển khai dựa trên libsvm. Tỷ lệ thời gian phù hợp ít nhất là bậc hai với số lượng mẫu và có thể không thực tế ngoài hàng chục nghìn mẫu. Đối với các bộ dữ liệu lớn, hãy cân nhắc sử dụng hoặc thay vào đó, có thể sau một máy biến áp hoặc Hỗ trợ đa lớp được xử lý theo sơ đồ một đối một Để biết chi tiết về công thức toán học chính xác của các hàm hạt nhân được cung cấp và cách Đọc thêm trong Thông số . C thả nổi, mặc định = 1. 0Tham số chính quy. Độ mạnh của chính quy hóa tỷ lệ nghịch với C. Phải nghiêm túc tích cực. Hình phạt là hình phạt l2 bình phương kernel {'linear', 'poly', 'rbf', 'sigmoid', 'precomputed'} hoặc có thể gọi được, default='rbf'Chỉ định loại hạt nhân sẽ được sử dụng trong thuật toán. Nếu không có gì được đưa ra, 'rbf' sẽ được sử dụng. Nếu một khả năng gọi được đưa ra, nó được sử dụng để tính toán trước ma trận hạt nhân từ ma trận dữ liệu; độ int, mặc định=3Bậc của hàm nhân đa thức ('poly'). Phải không âm. Bỏ qua bởi tất cả các hạt nhân khác gamma {'scale', 'auto'} hoặc float, default='scale'Hệ số hạt nhân cho 'rbf', 'poly' và 'sigmoid'
Đã thay đổi trong phiên bản 0. 22. Giá trị mặc định của Thuật ngữ độc lập trong hàm kernel. Nó chỉ có ý nghĩa trong 'poly' và 'sigmoid' đang thu hẹp bool, mặc định=TrueCó nên sử dụng heuristic thu hẹp hay không. xem xác suất bool, mặc định=SaiCó bật ước tính xác suất hay không. Điều này phải được kích hoạt trước khi gọi >>> print(clf.predict([[-0.8, -1]])) [1]2, sẽ làm chậm phương thức đó vì nó sử dụng xác thực chéo 5 lần trong nội bộ và >>> print(clf.predict([[-0.8, -1]])) [1]3 có thể không phù hợp với >>> print(clf.predict([[-0.8, -1]])) [1]4. Đọc thêm trongtol thả nổi, mặc định=1e-3 Dung sai cho tiêu chí dừng cache_size thả nổi, mặc định = 200Chỉ định kích thước của bộ đệm kernel (tính bằng MB) class_weight dict hoặc 'cân bằng', mặc định=Không cóĐặt tham số C của lớp i thành class_weight[i]*C cho SVC. Nếu không được cung cấp, tất cả các lớp được cho là có trọng số một. Chế độ “cân bằng” sử dụng các giá trị của y để tự động điều chỉnh các trọng số tỷ lệ nghịch với tần suất lớp trong dữ liệu đầu vào là >>> print(clf.predict([[-0.8, -1]])) [1]5dài dòng bool, mặc định=Sai Bật đầu ra dài dòng. Lưu ý rằng cài đặt này tận dụng cài đặt thời gian chạy theo quy trình trong libsvm, nếu được bật, có thể không hoạt động bình thường trong ngữ cảnh đa luồng max_iter int, mặc định=-1Giới hạn cứng đối với các lần lặp trong bộ giải hoặc -1 không giới hạn decision_function_shape {'ovo', 'ovr'}, default='ovr'Có trả về hàm quyết định một chọi một ('ovr') của hình dạng (n_samples, n_classes) như tất cả các bộ phân loại khác hay hàm quyết định một chọi một ('ovo') ban đầu của libsvm có hình dạng (n_samples . Tuy nhiên, lưu ý rằng trong nội bộ, một đối một ('ovo') luôn được sử dụng như một chiến lược nhiều lớp để đào tạo người mẫu; . Tham số bị bỏ qua để phân loại nhị phân Đã thay đổi trong phiên bản 0. 19. decision_function_shape là 'ovr' theo mặc định. Mới trong phiên bản 0. 17. decision_function_shape=’ovr’ được đề xuất. Đã thay đổi trong phiên bản 0. 17. Không dùng nữa Decision_function_shape=’ovo’ và Không. break_ties bool, mặc định=SaiNếu đúng, >>> print(clf.predict([[-0.8, -1]])) [1]6 và số lớp > 2, sẽ phá vỡ mối quan hệ theo các giá trị độ tin cậy của ; . Xin lưu ý rằng việc phá vỡ mối quan hệ có chi phí tính toán tương đối cao so với dự đoán đơn giản Mới trong phiên bản 0. 22 random_state int, thể hiện RandomState hoặc Không, mặc định=KhôngKiểm soát việc tạo số giả ngẫu nhiên để xáo trộn dữ liệu cho các ước tính xác suất. Bị bỏ qua khi >>> print(clf.predict([[-0.8, -1]])) [1]7 là Sai. Truyền int cho đầu ra có thể lặp lại qua nhiều lệnh gọi hàm. Nhìn thấyThuộc tính . class_weight_ ndarray của hình dạng (n_classes,) Hệ số nhân của tham số C cho mỗi lớp. Được tính toán dựa trên tham số >>> print(clf.predict([[-0.8, -1]])) [1]8classes_ ndarray của hình dạng (n_classes,) Các nhãn lớp ndarray của hình dạng (n_classes * (n_classes - 1)/2, n_features)Trọng số được gán cho các tính năng khi Các hệ số kép của vectơ hỗ trợ trong hàm quyết định (xem ), nhân với mục tiêu của chúng. Đối với nhiều lớp, hệ số cho tất cả các bộ phân loại 1 đối 1. Cách bố trí các hệ số trong trường hợp đa lớp có phần không tầm thường. Xem chi tiết fit_status_ int0 nếu được lắp đúng, 1 nếu không (sẽ tăng cảnh báo) chặn_ ndarray của hình dạng (n_classes * (n_classes - 1)/2,)Các hằng trong hàm quyết định n_features_in_ intSố lượng các tính năng nhìn thấy trong Mới trong phiên bản 0. 24 feature_names_in_ ndarray của hình dạng (sklearn.svm 1,)Tên của các tính năng nhìn thấy trong quá trình. Chỉ được xác định khi Mới trong phiên bản 1. 0 n_iter_ ndarray của hình dạng (n_classes * (n_classes - 1) // 2,)Số lần lặp được thực hiện bởi quy trình tối ưu hóa để phù hợp với mô hình. Hình dạng của thuộc tính này phụ thuộc vào số lượng mô hình được tối ưu hóa, do đó phụ thuộc vào số lượng lớp Mới trong phiên bản 1. 1 support_ ndarray của hình dạng (n_SV)Chỉ số của vectơ hỗ trợ support_vectors_ ndarray của hình dạng (n_SV, n_features)Hỗ trợ vectơ ndarray của hình dạng (n_classes,), dtype=int32Số lượng vectơ hỗ trợ cho mỗi lớp ndarray của hình dạng (n_classes * (n_classes - 1)/2)Tham số đã học trong quy mô Platt khi Tham số đã học trong quy mô Platt khi Kích thước mảng của vectơ huấn luyện Xem thêm Máy Vector hỗ trợ hồi quy được triển khai bằng libsvm Máy vectơ hỗ trợ tuyến tính có thể mở rộng để phân loại được triển khai bằng liblinear. Kiểm tra phần Xem thêm của LinearSVC để biết thêm yếu tố so sánh Người giới thiệu [ 1 ] LIBSVM. Thư viện cho các máy vectơ hỗ trợ [ 2 ] Platt, John (1999). “Kết quả đầu ra xác suất cho các máy vectơ hỗ trợ và so sánh với các phương pháp xác suất chính quy” ví dụ ________số 8_______ >>> print(clf.predict([[-0.8, -1]])) [1] phương pháp (X) Đánh giá hàm quyết định cho các mẫu trong X (X, y[, sample_weight]) Điều chỉnh mô hình SVM theo dữ liệu đào tạo đã cho ([sâu]) Nhận thông số cho công cụ ước tính này (X) Thực hiện phân loại trên các mẫu trong X (X) Tính xác suất nhật ký của các kết quả có thể xảy ra đối với các mẫu trong X (X) Tính xác suất của các kết quả có thể xảy ra đối với các mẫu trong X (X, y[, sample_weight]) Trả về độ chính xác trung bình trên dữ liệu thử nghiệm đã cho và nhãn (**thông số) Đặt các tham số của công cụ ước tính này thuộc tính coef_Trọng số được gán cho các tính năng khi Đánh giá hàm quyết định cho các mẫu trong X Thông số . X hình dạng giống như mảng (n_samples, n_features)Các mẫu đầu vào Trả về . X ndarray của hình dạng (n_samples, n_classes * (n_classes-1)/2)Trả về hàm quyết định của mẫu cho mỗi lớp trong mô hình. Nếu quyết định_function_shape=’ovr’, hình dạng là (n_samples, n_classes) ghi chú Nếu quyết định_function_shape=’ovo’, các giá trị của hàm tỷ lệ với khoảng cách của các mẫu X tới siêu phẳng phân tách. Nếu khoảng cách chính xác được yêu cầu, hãy chia các giá trị hàm cho định mức của vectơ trọng số ( >>> print(clf.predict([[-0.8, -1]])) [1]9). Xem thêm câu hỏi này để biết thêm chi tiết. Nếu Decision_function_shape=’ovr’, thì hàm quyết định là phép biến đổi đơn điệu của hàm quyết định ovophù hợp(X , y , sample_weight=Không có) Điều chỉnh mô hình SVM theo dữ liệu đào tạo đã cho Thông số . X {dạng mảng, ma trận thưa thớt} có dạng (n_samples, n_features) hoặc (n_samples, n_samples)Các vectơ đào tạo, trong đó Giá trị mục tiêu (nhãn lớp trong phân loại, số thực trong hồi quy) trọng lượng mỗi mẫu. Thay đổi tỷ lệ C trên mỗi mẫu. Trọng số cao hơn buộc bộ phân loại phải nhấn mạnh hơn vào những điểm này Trả về . bản thân sự vậtcông cụ ước tính được trang bị ghi chú Nếu X và y không phải là mảng thứ tự C và liền kề của np. float64 và X không phải là scipy. thưa thớt. csr_matrix, X và/hoặc y có thể được sao chép Nếu X là một mảng dày đặc, thì các phương thức khác sẽ không hỗ trợ ma trận thưa thớt làm đầu vào get_params(deep=Đúng)Nhận thông số cho công cụ ước tính này Thông số . deep bool, mặc định=TrueNếu Đúng, sẽ trả về các tham số cho công cụ ước tính này và chứa các đối tượng con là công cụ ước tính Trả về . params mệnh lệnhTên tham số được ánh xạ tới giá trị của chúng thuộc tính n_support_Số lượng vectơ hỗ trợ cho mỗi lớp dự đoán(X)Thực hiện phân loại trên các mẫu trong X Đối với mô hình một lớp, +1 hoặc -1 được trả về Thông số . X {dạng mảng, ma trận thưa thớt} có hình dạng (n_samples, n_features) hoặc (n_samples_test, n_samples_train)Đối với kernel=”precomputed”, hình dạng dự kiến của X là (n_samples_test, n_samples_train) Trả về . y_pred ndarray của hình dạng (n_samples,)Nhãn lớp cho các mẫu trong X predict_log_proba(X)Tính xác suất nhật ký của các kết quả có thể xảy ra đối với các mẫu trong X Mô hình cần có thông tin xác suất được tính toán tại thời điểm đào tạo. phù hợp với thuộc tính >>> print(clf.predict([[-0.8, -1]])) [1]7 được đặt thành TrueThông số . X hình dạng giống như mảng (n_samples, n_features) hoặc (n_samples_test, n_samples_train) Đối với kernel=”precomputed”, hình dạng dự kiến của X là (n_samples_test, n_samples_train) Trả về . T ndarray của hình dạng (n_samples, n_classes)Trả về xác suất nhật ký của mẫu cho mỗi lớp trong mô hình. Các cột tương ứng với các lớp theo thứ tự được sắp xếp, khi chúng xuất hiện trong thuộc tính ghi chú Mô hình xác suất được tạo bằng xác thực chéo, do đó, kết quả có thể hơi khác so với kết quả thu được bằng cách dự đoán. Ngoài ra, nó sẽ tạo ra kết quả vô nghĩa trên các tập dữ liệu rất nhỏ predict_proba(X)Tính xác suất của các kết quả có thể xảy ra đối với các mẫu trong X Mô hình cần có thông tin xác suất được tính toán tại thời điểm đào tạo. phù hợp với thuộc tính >>> print(clf.predict([[-0.8, -1]])) [1]7 được đặt thành TrueThông số . X hình dạng giống như mảng (n_samples, n_features) Đối với kernel=”precomputed”, hình dạng dự kiến của X là (n_samples_test, n_samples_train) Trả về . T ndarray của hình dạng (n_samples, n_classes)Trả về xác suất của mẫu cho mỗi lớp trong mô hình. Các cột tương ứng với các lớp theo thứ tự được sắp xếp, khi chúng xuất hiện trong thuộc tính ghi chú Mô hình xác suất được tạo bằng xác thực chéo, do đó, kết quả có thể hơi khác so với kết quả thu được bằng cách dự đoán. Ngoài ra, nó sẽ tạo ra kết quả vô nghĩa trên các tập dữ liệu rất nhỏ thuộc tính thăm dòA_Tham số đã học trong quy mô Platt khi Tham số đã học trong quy mô Platt khi Trả về độ chính xác trung bình trên dữ liệu thử nghiệm đã cho và nhãn Trong phân loại nhiều nhãn, đây là độ chính xác của tập hợp con, đây là một chỉ số khắc nghiệt vì bạn yêu cầu đối với mỗi mẫu, mỗi bộ nhãn phải được dự đoán chính xác Thông số . X hình dạng giống như mảng (n_samples, n_features)Mẫu thử nghiệm y giống như mảng của hình dạng (n_samples,) hoặc (n_samples, n_outputs)Nhãn đúng cho trọng lượng mẫu Trả về . điểm trôi nổiĐộ chính xác trung bình của Đặt các tham số của công cụ ước tính này Phương pháp này hoạt động trên các công cụ ước tính đơn giản cũng như trên các đối tượng lồng nhau (chẳng hạn như ). Cái sau có các tham số dạng 1e 10 nghĩa là gì?1e 10 sẽ là 1 × 10^10 hoặc 10 tỷ .
1e10 là số mấy?e10 được viết là 10000000000. ?
1e có nghĩa là gì trong Python?Không là gì ngoài ký hiệu khoa học. Điều đó có nghĩa là 1 × 10−5 . Nói cách khác, 0. 00001.
1e 3 có nghĩa là gì trong Python?Để chỉ định số dấu phẩy động, hãy bao gồm dấu thập phân ở đâu đó trong số hoặc sử dụng ký hiệu hàm mũ, ví dụ 1e3 hoặc 1E3 để biểu thị 1000 (1 nhân 10 mũ . . |