当前位置: 首页 > news >正文

安装wordpress空白衡阳网站优化

安装wordpress空白,衡阳网站优化,长泰597人才网最新招聘信息,wordpress默认模板目录在哪里优化超参数始终是确保模型性能最佳的关键任务。通常#xff0c;网格搜索、随机搜索和贝叶斯优化等技术是主要使用的方法。 今天分享几个常用于模型超参数优化的 Python 工具包#xff0c;如下所示#xff1a; scikit-learn#xff1a;使用在指定参数值上进行的网格搜索或…优化超参数始终是确保模型性能最佳的关键任务。通常网格搜索、随机搜索和贝叶斯优化等技术是主要使用的方法。 今天分享几个常用于模型超参数优化的 Python 工具包如下所示 scikit-learn使用在指定参数值上进行的网格搜索或随机搜索。HyperparameterHunter构建在scikit-learn之上以使其更易于使用。Optuna使用随机搜索、Parzen估计器TPE和基于群体的训练。Hyperopt使用随机搜索和TPE。Talos构建在Keras之上以使其更易于使用。 技术交流 技术要学会分享、交流不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。 本文由粉丝群小伙伴总结与分享如果你也想学习交流资料获取均可加交流群获取群友已超过2000人添加时最好的备注方式为来源兴趣方向方便找到志同道合的朋友。 方式①、添加微信号dkl88194备注来自CSDN 加群 方式②、微信搜索公众号Python学习与数据挖掘后台回复加群 现在让我们看一些使用这些库进行自动编码器模型超参数优化的Python代码示例 from keras.layers import Input, Dense from keras.models import Model# define the Autoencoder input_layer Input(shape(784,)) encoded Dense(32, activationrelu)(input_layer) decoded Dense(784, activationsigmoid)(encoded) autoencoder Model(input_layer, decoded) autoencoder.compile(optimizeradam, lossbinary_crossentropy) autoencoder.fit(X_train, X_train, epochs100, batch_size256, validation_data(X_test, X_test))scikit-learn from sklearn.model_selection import GridSearchCV# define the parameter values that should be searched param_grid {batch_size: [64, 128, 256], epochs: [50, 100, 150]}# create a KFold cross-validator kfold KFold(n_splits10, random_state7)# create the grid search object grid GridSearchCV(estimatorautoencoder, param_gridparam_grid, cvkfold)# fit the grid search object to the training data grid_result grid.fit(X_train, X_train)# print the best parameters and the corresponding score print(fBest parameters: {grid_result.best_params_}) print(fBest score: {grid_result.best_score_})HyperparameterHunter import HyperparameterHunter as hh# create a HyperparameterHunter object hunter hh.HyperparameterHunter(input_dataX_train, output_dataX_train, model_wrapperhh.ModelWrapper(autoencoder))# define the hyperparameter search space hunter.setup(objectiveval_loss, metricval_loss, optimization_modeminimize, max_trials100) hunter.add_experiment(parametershh.Real(0.1, 1, namelearning_rate, digits3, rounding4)) hunter.add_experiment(parametershh.Real(0.1, 1, namedecay, digits3, rounding4))# perform the hyperparameter search hunter.hunt(n_jobs1, gpu_id0)# print the best hyperparameters and the corresponding score print(fBest hyperparameters: {hunter.best_params}) print(fBest score: {hunter.best_score})Hyperopt from hyperopt import fmin, tpe, hp# define the parameter space param_space {batch_size: hp.quniform(batch_size, 64, 256, 1), epochs: hp.quniform(epochs, 50, 150, 1)}# define the objective function def objective(params):autoencoder.compile(optimizeradam, lossbinary_crossentropy)autoencoder.fit(X_train, X_train, batch_sizeparams[batch_size], epochsparams[epochs], verbose0)scores autoencoder.evaluate(X_test, X_test, verbose0)return {loss: scores, status: STATUS_OK}# perform the optimization best fmin(objective, param_space, algotpe.suggest, max_evals100)# print the best parameters and the corresponding score print(fBest parameters: {best}) print(fBest score: {objective(best)})Optuna import optuna# define the objective function def objective(trial):batch_size trial.suggest_int(batch_size, 64, 256)epochs trial.suggest_int(epochs, 50, 150)autoencoder.compile(optimizeradam, lossbinary_crossentropy)autoencoder.fit(X_train, X_train, batch_sizebatch_size, epochsepochs, verbose0)score autoencoder.evaluate(X_test, X_test, verbose0)return score# create the Optuna study study optuna.create_study()# optimize the hyperparameters study.optimize(objective, n_trials100)# print the best parameters and the corresponding score print(fBest parameters: {study.best_params}) print(fBest score: {study.best_value})Talos import talos# define the parameter space param_space {learning_rate: [0.1, 0.01, 0.001], decay: [0.1, 0.01, 0.001]}# define the objective function def objective(params):autoencoder.compile(optimizeradam, lossbinary_crossentropy, lrparams[learning_rate], decayparams[decay])history autoencoder.fit(X_train, X_train, epochs100, batch_size256, validation_data(X_test, X_test), verbose0)score history.history[val_loss][-1]return score# perform the optimization best talos.Scan(X_train, X_train, paramsparam_space, modelautoencoder, experiment_nameautoencoder).best_params(objective, n_trials100)# print the best parameters and the corresponding score print(fBest parameters: {best}) print(fBest score: {objective(best)})
http://www.yutouwan.com/news/249920/

相关文章:

  • 白沙网站建设中文wordpress模板
  • 网站建设捌金手指花总二免费网站看v片在线第一次做
  • 建设网站要学编程吗网站建设的市场容量
  • 辽宁专业网站建设网站编辑是网页制作么
  • 做电信宽带合适做网站吗网站建设 技术架构
  • 网站构成的作用是什么电子商务网站开发策划
  • 常青花园做网站的公司网站建设龙华
  • 怎么做wep网站网站开发与设计培训的就业前景
  • 厦门专业做网站 厦门做网站的公司 厦门做服饰网站网站广告设计怎么做
  • 自己免费做网站有什么用开源公司网站
  • 网站怎么做页面解析跳转河南网站建设问一问公司
  • 这个百度的网站怎么做的网站免费做链接
  • seo网站有优化培训吗金华专业网站制作
  • 简洁高端网站模板psdwordpress首页调用最新文章
  • 增城网站建设公司京东商城网上购物登录
  • 事业单位考试网站seo是哪个国家
  • 做外贸网站好还是内贸网站好洋河门户平台
  • 用.cc做网站官网可以吗小米发布会2023新品
  • 百度做网站多少钱一年活动策划招聘
  • 龙华营销型网站建设公司搭建一个app平台需要多少钱
  • 营销型网站有哪些建设流程wordpress js调用淘客
  • 连云港市网站平台网络公司好听的名字
  • 学校网站建设报价表襄樊网站制作公司
  • 网站备案 条例网站推广方案怎么写
  • 想做个自己的网站一个公网ip可以做几个网站
  • 上海企业专属网站建设平台站长工具ip地址查询域名
  • 模板网站建设明细报价表找外包做网站要多久
  • 网站续费话术wordpress主页打不开
  • 网站建设 工单佛山市seo推广
  • php网站集成支付宝接口中国纵横168网站建设系统