Github 項目推薦 | 深度學習入門教程,優秀文章:Deep Learning Tutorial
DeepLearning Tutorial
一. 入門資料
AiLearning: 機器學習 – MachineLearning – ML、深度學習 – DeepLearning – DL、自然語言處理 NL
數學基礎
機器學習基礎
快速入門
- 推薦順序由前到後
- 機器學習演算法地圖
- 機器學習 吳恩達 Coursera個人筆記 && 影片(含官方筆記)
- CS229 課程講義中文翻譯 && 機器學習 吳恩達 cs229個人筆記 && 官網(筆記) && 影片(中文字幕)
- 百頁機器學習
深入理解
深度學習基礎
快速入門
- 推薦順序由前到後
- 深度學習思維導圖 && 深度學習演算法地圖
- 《斯坦福大學深度學習基礎教程》 Andrew Ng(吳恩達)
- 深度學習 吳恩達 個人筆記 && 影片
- MIT深度學習基礎-2019影片課程
- 台灣大學(NTU)李宏毅教授課程
- 圖解深度學習_Grokking-Deep-Learning
- 《神經網路與深度學習》 Michael Nielsen
- CS321-Hinton
- CS230: Deep Learning
- CS294-112
電腦視覺
自然語言處理
深度強化學習
深入理解
- 《深度學習》 Yoshua Bengio.Ian GoodFellow⭐️
- 《自然語言處理》Jacob Eisenstein
- 《強化學習》 && 第二版
- hangdong的深度學習部落格,論文推薦
- Practical Deep Learning for Coders, v3
- 《Tensorflow實戰Google深度學習框架》 鄭澤宇 顧思宇
一些書單
工程能力
- 如何系統地學習演算法? && LeetCode && leetcode題解 && 《演算法導論》中演算法的C++實現
- 機器學習演算法實戰
- 深度學習框架
- 如何成為一名演算法工程師 && 從小白到入門演算法,我的經驗分享給你~ && 我的研究生這三年 ⭐️
- 《AI演算法工程師手冊》
- 如何準備演算法工程師面試,斬獲一線互聯網公司機器學習崗offer?
- 【完結】深度學習CV演算法工程師從入門到初級面試有多遠,大概是25篇文章的距離
- 電腦相關技術面試必備 && 面試演算法筆記-中文
- 演算法工程師面試
- 深度學習面試題目
- 深度學習500問
- AI演算法崗求職攻略
- Kaggle實戰
- 常用演算法:
- Feature Engineering:continue variable && categorical variable
- Classic machine learning algorithm:LR, KNN, SVM, Random Forest, GBDT(XGBoost&&LightGBM), Factorization Machine, Field-aware Factorization Machine, Neural Network
- Cross validation, model selection:grid search, random search, hyper-opt
- Ensemble learning
- Kaggle 項目實戰(教程) = 文檔 + 程式碼 + 影片
- Kaggle入門系列:(一)機器學習環境搭建 && Kaggle入門系列:(二)Kaggle簡介 && Kaggle入門系列(三)Titanic初試身手
- 從 0 到 1 走進 Kaggle
- Kaggle 入門指南
- 一個框架解決幾乎所有機器學習問題 && Approaching (Almost) Any Machine Learning Problem | Abhishek Thakur
- 分分鐘帶你殺入Kaggle Top 1%
- 如何達到Kaggle競賽top 2%?這裡有一篇特徵探索經驗帖
- 如何在 Kaggle 首戰中進入前 10%?
- 常用演算法:
- 大數據&機器學習相關競賽推薦
二. 神經網路模型概覽
- 1. 一文看懂25個神經網路模型
- 2. DNN概述論文:詳解前饋、卷積和循環神經網路技術
- 3. colah’s blog
- 4. Model Zoom
- 5. DNN概述
- 6. 從基本原理到梯度下降,小白都能看懂的神經網路教程
- GitHub上的機器學習/深度學習綜述項目合集
CNN
發展史
- 1. 94頁論文綜述卷積神經網路:從基礎技術到研究前景
- 2. 從LeNet-5到DenseNet
- 3. CNN影像分割簡史:從R-CNN到Mask R-CNN(譯)
- 4. 深度學習之目標檢測的前世今生(Mask R-CNN)
- 5. 縱覽輕量化卷積神經網路:SqueezeNet、MobileNet、ShuffleNet、Xception
- 6. 深度學習目標檢測模型全面綜述:Faster R-CNN、R-FCN和SSD
- 7. 影像語義分割(Semantic segmentation) Survey
- 7. 從RCNN到SSD,這應該是最全的一份目標檢測演算法盤點
- 8. 影像語義分割(Semantic segmentation) Survey
- 9. 語義分割 發展綜述
- 深度學習分類網路
- 深度學習筆記(十一)網路 Inception, Xception, MobileNet, ShuffeNet, ResNeXt, SqueezeNet, EfficientNet, MixConv
- CNN網路結構的發展
- 卷積神經網路結構演變(form Hubel and Wiesel to SENet)
- 從VGG到NASNet,一文概覽影像分類網路
- From RCNN to YOLO:上,下
- 後 R-CNN時代, Faster R-CNN、SSD、YOLO 各類變體統治下的目標檢測綜述:Faster R-CNN系列勝了嗎?
- 目標檢測-20種模型的原味程式碼匯總
- 目標檢測演算法綜述三部曲
- 如何走近深度學習人臉識別?你需要這篇超長綜述 | 附開源程式碼
- 人臉檢測和識別演算法綜述
- 深度學習影像超解析度綜述
- 目標檢測進化史
- 一文看盡21篇目標檢測最新論文(騰訊/Google/商湯/曠視/清華/浙大/CMU/華科/中科院等
- Anchor-Free目標檢測演算法: 第一篇:arxiv2015_baidu_DenseBox, 如何評價最新的anchor-free目標檢測模型FoveaBox?, FCOS: 最新的one-stage逐像素目標檢測演算法 && 最新的Anchor-Free目標檢測模型FCOS,現已開源! && 中科院牛津華為諾亞提出CenterNet,one-stage detector可達47AP,已開源! && AnchorFreeDetection
- 目標檢測演算法綜述之FPN優化篇
- 聊聊Anchor的”前世今生”(上)&&聊聊Anchor的”前世今生”(下)
- 【CVPR2019正式公布】行人重識別論文,2019 行人再識別年度進展回顧
- 2019CVPR文本檢測綜述
- 從SRCNN到EDSR,總結深度學習端到端超解析度方法發展歷程
- 【CVPR2019正式公布】行人重識別論文
- 自然場景文本檢測識別技術綜述
- Awesome-Image-Colorization
- Awesome-Edge-Detection-Papers
- OCR文字處理
- awesome-point-cloud-analysis
- Graph Neural Network(GNN)綜述
- 小樣本學習(Few-shot Learning)綜述
- 超全深度學習細粒度影像分析:項目、綜述、教程一網打盡
- 影像檢索的十年上、下
教程
- 卷積神經網路工作原理
- 「七夕的禮物」: 一日搞懂卷積神經網路
- A Comprehensive Introduction to Different Types of Convolutions in Deep Learning && 翻譯:上、下
- 變形卷積核、可分離卷積
- 對深度可分離卷積、分組卷積、擴張卷積、轉置卷積(反卷積)的理解
- 各種卷積
- 卷積有多少種?一文讀懂深度學習中的各種卷積
- 反卷積
- Convolution Network及其變種(反卷積、擴展卷積、因果卷積、圖卷積)
- 如何評價最新的Octave Convolution?
- 深度學習基礎–卷積類型
- Dilated/Atrous conv 空洞卷積/多孔卷積
- CNN模型之ShuffleNet
- 一文簡述ResNet及其多種變體
- ResNet解析
- 將CNN引入目標檢測的開山之作:R-CNN
- 深度學習(十八)基於R-CNN的物體檢測
- R-CNN論文詳解
- 深度學習(六十四)Faster R-CNN物體檢測
- 先理解Mask R-CNN的工作原理,然後構建顏色填充器應用
- 實例分割–Mask RCNN詳解(ROI Align / Loss Function)
- 語義分割卷積神經網路快速入門
- 影像語義分割的工作原理和CNN架構變遷
- CapsNet入門系列
- YOLO
- 目標檢測|YOLOv2原理與實現(附YOLOv3)
- 目標檢測模型YOLO v3問世
- Attention, 1,2,3,4,5
- 一文讀懂卷積神經網路中的1×1卷積核
- 目標檢測之CornerNet, 1, 2, 3
- 目標檢測的性能評價指標 && NMS和計算mAP時的置信度閾值和IoU閾值 && 白話mAP
- 人群計數, 1, 2, 3
- RelationNetwork
- ShuffleNet V2和四個網路架構設計準則
- 【Tensorflow】tf.nn.depthwise_conv2d如何實現深度卷積?
- Tensorflow】tf.nn.atrous_conv2d如何實現空洞卷積?
- 【Tensorflow】tf.nn.separable_conv2d如何實現深度可分卷積?
- 【TensorFlow】tf.nn.conv2d_transpose是怎樣實現反卷積的?
- 何愷明大神的「Focal Loss」,如何更好地理解?
- CNN 模型所需的計算力(flops)和參數(parameters)數量是怎麼計算的?
Action
- 先讀懂CapsNet架構然後用TensorFlow實現
- TensorFlow Object Detection API 教程
- 在TensorFlow+Keras環境下使用RoI池化一步步實現注意力機制
- mxnet如何查看參數數量 && mxnet查看FLOPS
GAN
發展史
- 千奇百怪的GAN變體
- The GAN Landscape:Losses, Architectures, Regularization, and Normalization
- 深度學習新星:GAN的基本原理、應用和走向
- GAN生成影像綜述
教程
- 1. GAN原理學習筆記
- 2. 極端影像壓縮的對抗生成網路
- 3. 台灣大學李宏毅GAN教程
- 4. 2017年GAN 電腦視覺相關paper匯總
- 5. 在Keras上實現GAN:構建消除圖片模糊的應用
- 6. CycleGAN:圖片風格,想換就換 | ICCV 2017論文解讀
- 7. Wasserstein GAN
- 用變分推斷統一理解生成模型(VAE、GAN、AAE、ALI)
Action
RNN
發展史
教程
- 完全圖解RNN、RNN變體、Seq2Seq、Attention機制
- 循環神經網路(RNN, Recurrent Neural Networks)介紹
- RNN以及LSTM的介紹和公式梳理
- (譯)理解長短期記憶(LSTM) 神經網路
- 一文讀懂LSTM和RNN
- 探索LSTM:基本概念到內部結構
- 翻譯:深入理解LSTM系列
- 深入理解 LSTM 網路 (一)
- 深入理解 LSTM 網路 (二)
- LSTM
- 深度學習其五 循環神經網路
- 用循環神經網路進行文件無損壓縮:斯坦福大學提出DeepZip
- 吳恩達序列建模課程
- word2vec
- 聊聊 Transformer
- 基於word2vec訓練詞向量(一)
- 基於word2vec訓練詞向量(二)
- 自然語言處理中的自注意力機制(Self-Attention Mechanism)
- 自然語言處理中注意力機制綜述
- YJango的Word Embedding–介紹
Action
- tensorflow中RNNcell源碼分析以及自定義RNNCell的方法
- TensorFlow中RNN實現的正確打開方式
- TensorFlow RNN 程式碼
- Tensorflow實現的深度NLP模型集錦
- nlp-tutorial
- 用tensorflow LSTM如何預測股票價格
- TensorFlow的多層LSTM實踐
- 《安娜卡列尼娜》文本生成——利用TensorFlow構建LSTM模型
GNN
發展史
- Graph Neural Network(GNN)綜述
- 深度學習時代的圖模型,清華髮文綜述圖網路
- 清華大學圖神經網路綜述:模型與應用
- 圖神經網路概述第三彈:來自IEEE Fellow的GNN綜述
- GNN最全文獻資料整理 && Awesome-Graph-Neural-Networks
教程
- 如何理解 Graph Convolutional Network(GCN)
- 圖卷積網路(GCN)新手村完全指南
- 何時能懂你的心——圖卷積神經網路(GCN)
- 圖卷積網路GCN的理解與介紹
- 一文讀懂圖卷積GCN
Action
三. 深度模型的優化
- 1. 優化演算法縱覽
- 2. 從梯度下降到Adam
- 3. 從梯度下降到擬牛頓法:盤點訓練神經網路的五大學習演算法
- 4. 正則化技術總結
- 5. 最優化演算法系列(math)
- 6. 神經網路訓練中的梯度消失與梯度爆炸
- 7. 神經網路的優化及訓練
- 8. 通俗講解查全率和查准率, 全面梳理:準確率,精確率,召回率,查准率,查全率,假陽性,真陽性,PRC,ROC,AUC,F1
- 9. 激活函數一覽
- 10. Coursera吳恩達《優化深度神經網路》課程筆記(3)– 超參數調試、Batch正則化和編程框架
- 11. 機器學習各種熵
- 12. 距離和相似性度量
- 13. 機器學習里的黑色藝術:normalization, standardization, regularization
- 14. LSTM系列的梯度問題
- 15. 損失函數整理
- 16. 詳解殘差塊為何有助於解決梯度彌散問題
- 17. FAIR何愷明等人提出組歸一化:替代批歸一化,不受批量大小限制
- 18. Batch Normalization(BN):1 ,2 ,3 ,4 , 5, 6, 7
- 19. 詳解深度學習中的Normalization,不只是BN && 如何區分並記住常見的幾種 Normalization 演算法
- 20. BFGS
- 21. 詳解深度學習中的梯度消失、爆炸原因及其解決方法
- 22. Dropout, 1, 2, 3
- 23.譜歸一化(Spectral Normalization)的理解,常見向量範數和矩陣範數,譜範數正則(Spectral Norm Regularization)的理解
- 24.L1正則化與L2正則化
- 25.為什麼選用交叉熵而不是MSE
- 機器學習筆記四:線性回歸回顧與logistic回歸
- 反向傳播演算法(過程及公式推導)
- 交叉熵代價函數(作用及公式推導)
- Softmax:詳解softmax函數以及相關求導過程 && softmax的log似然代價函數(公式求導)
- 權重初始化
四. 煉丹術士那些事
調參經驗
- 訓練的神經網路不工作?一文帶你跨過這37個坑
- 神經網路訓練trick
- 深度學習與電腦視覺系列(8)_神經網路訓練與注意點
- 神經網路訓練loss不下降原因集合
- 深度學習:欠擬合問題的幾種解決方案 &&過擬合和欠擬合問題
- 機器學習:如何找到最優學習率及實現
- 不平衡數據集處理方法: 其一, 其二, 其三
- 同一個神經網路使用不同激活函數的表達能力是否一致
- 梯度下降優化演算法縱覽, 1, 2
- 論文筆記之數據增廣:mixup
- 避坑指南:數據科學家新手常犯的13個錯誤
- 憑什麼相信CNN的結果?–可視化
- 大卷積核還是小卷積核? 1, 2
- 模型可解釋性差?你考慮了各種不確定性了嗎?
- 煉丹筆記系列
刷排行榜的奇技淫巧
影像分類
- 煉丹筆記三:數據增強 && 數據增強(Data Augmentation)
- 【技術綜述】 深度學習中的數據增強(上) && 【技術綜述】深度學習中的數據增強(下)
- 《Bag of Tricks for Image Classification with CNN》&& pdf
- 神經網路訓練trick
- Kaggle解決方案分享
目標檢測
- ensemble
- deformable
- sync bn
- ms train/test
- 目標檢測任務的優化策略tricks
- 目標檢測小tricks–樣本不均衡處理
- 目標檢測演算法中的常見trick
- Kaggle:肺癌自動診斷系統3D Deep Leaky Noisy-or Network 論文閱讀
- 乾貨|大神教你如何參加kaggle比賽——根據CT掃描圖預測肺癌
五. 年度總結
六. 科研相關
深度學習框架
Python3.x(先修)
Numpy(先修)
- Quickstart tutorial
- Numpy快速入門(Numpy 1.14 官方文檔中文翻譯)
- Numpy中文文檔
- 給深度學習入門者的Python快速教程 – numpy和Matplotlib篇
Opencv-python
- OpenCV-Python Tutorials
- OpenCV官方教程中文版(For Python)
- 數字影像處理系列
- python+OpenCV影像處理
- 給深度學習入門者的Python快速教程 – 番外篇之Python-OpenCV
Pandas
Tensorflow
- 如何高效地學習 TensorFlow 程式碼
- 中文教程
- TensorFlow官方文檔
- CS20:Tensorflow for DeepLearning Research
- 吳恩達TensorFlow專項課程
- 【乾貨】史上最全的Tensorflow學習資源匯總
- 《21個項目玩轉深度學習———基於TensorFlow的實踐詳解》
- 最全Tensorflow2.0 入門教程持續更新
- Github優秀開源教程
MXNet
PyTorch
- Pytorch版動手學深度學習
- PyTorch中文文檔
- WELCOME TO PYTORCH TUTORIALS
- 史上最全的PyTorch學習資源匯總
- 【乾貨】史上最全的PyTorch學習資源匯總
- Hands-on tour to deep learning with PyTorch
Python可視化
- Top 50 matplotlib Visualizations – The Master Plots (with full python code)
- Python之MatPlotLib使用教程
- 十分鐘上手matplotlib,開啟你的python可視化
- 給深度學習入門者的Python快速教程 – numpy和Matplotlib篇
標註工具
數據集
- 1. 25個深度學習相關公開數據集
- 2. 自然語言處理(NLP)數據集
- 3.全唐詩(43030首)
- 4. 伯克利大學公開數據集
- 5. ACL 2018資源:100+ 預訓練的中文詞向量
- 6. 預訓練中文詞向量
- 7. 公開數據集種子庫
- 8. 電腦視覺,深度學習,數據挖掘數據集整理
- 9. 電腦視覺著名數據集CV Datasets
- 10. 電腦視覺相關數據集和比賽
- 11. 這是一份非常全面的開源數據集,你,真的不想要嗎?
- 12. 人群密度估計現有主要數據集特點及其比較
- 13. DANBOORU2017: A LARGE-SCALE CROWDSOURCED AND TAGGED ANIME ILLUSTRATION DATASET
- 14. 行人重識別數據集
- 15. 自然語言處理常見數據集、論文最全整理分享
- 16. paper, code, sota
- 17. 曠視RPC大型商品數據集發布!
- 18. CVPR 2019「准滿分」論文:NVIDIA 推出首個跨攝影機汽車跟蹤數據集(汽車Re-ID)
- 19.【OCR技術】大批量生成文字訓練集
- 20. 語義分析數據集-MSRA
會議列表
論文寫作工具
論文畫圖工具
- Visio2016
- Matplotlib
論文寫作教程
- 劉知遠_如何寫一篇合格的NLP論文
- 劉洋_如何寫論文_V7
- 如何端到端地寫科研論文-邱錫鵬
- 論文Introduction寫作其一, 論文Introduction寫作其二, 論文Introduction寫作其三
- 畢業論文怎麼寫
ResearchGo
- ResearchGo:研究生活第一帖——文獻檢索與管理
- ResearchGo:研究生活第二貼——文獻閱讀
- ResearchGo:研究生活第三帖——閱讀輔助
- ResearchGo:研究生活第四帖——文獻調研
- ResearchGo:研究生活第五帖——文獻綜述
- ResearchGo:研究生活第六帖——如何講論文
- ResearchGo:研究生活第七帖——專利檢索與申請
- ResearchGo:研究生活第八帖——寫論文、做PPT、寫文檔必備工具集錦
畢業論文排版
機器學習理論與實戰
- 機器學習原理⭐️
- ID3、C4.5、CART、隨機森林、bagging、boosting、Adaboost、GBDT、xgboost演算法總結
- 數據挖掘十大演算法簡要說明,機器學習十大經典演算法入門, 【演算法模型】輕鬆看懂機器學習十大常用演算法
- AdaBoost到GBDT系列
- 集成學習之bagging,stacking,boosting概念理解
- 番外篇之傅里葉變換
機器學習理論篇之經典演算法
資訊理論
多層感知機(MLP)
k近鄰(KNN)
k均值(K-means)
樸素貝葉斯(Naive Bayesian)
決策樹(Decision Tree)
- Python3《機器學習實戰》學習筆記(二):決策樹基礎篇之讓我們從相親說起
- Python3《機器學習實戰》學習筆記(三):決策樹實戰篇之為自己配個隱形眼鏡
- 機器學習實戰教程(十三):樹回歸基礎篇之CART演算法與樹剪枝
- 《機器學習實戰》基於資訊理論的三種決策樹演算法(ID3,C4.5,CART)
- 說說決策樹剪枝演算法
- 機器學習實戰 第九章 樹回歸
- 決策樹值ID3、C4.5實現
- 決策樹值CART實現
隨機森林(Random Forest)
邏輯回歸(Logistic Regression)
支援向量機(SVM)
- SVM通俗導論 July
- Python3《機器學習實戰》學習筆記(八):支援向量機原理篇之手撕線性SVM (SMO訓練過程總結得清晰易懂)
- svm核函數的理解和選擇
- 核函數和徑向基核函數 (Radial Basis Function)–RBF
- SVM核函數
提升方法(Adaboost)
梯度提升決策樹(GBDT)
- LightGBM大戰XGBoost
- 概述XGBoost、Light GBM和CatBoost的同與不同
- 梯度提升決策樹
- GBDT原理及應用
- XGBOOST原理篇
- xgboost入門與實戰(原理篇) && xgboost入門與實戰(實戰調參篇)
- 【乾貨合集】通俗理解kaggle比賽大殺器xgboost
- GBDT分類的原理及Python實現
- GBDT原理及利用GBDT構造新的特徵-Python實現
- Python+GBDT演算法實戰——預測實現100%準確率
EM(期望最大化)
高斯混合模型(GMM)
馬爾科夫決策過程(MDP)
- 馬爾科夫決策過程之Markov Processes(馬爾科夫過程)
- 馬爾科夫決策過程之Markov Reward Process(馬爾科夫獎勵過程)
- 馬爾科夫決策過程之Bellman Equation(貝爾曼方程)
- 馬爾科夫決策過程之Markov Decision Process(馬爾科夫決策過程)
- 馬爾科夫決策過程之最優價值函數與最優策略
條件隨機場(CRF, 判別式模型)
降維演算法
主成分分析(PCA)
奇異值分解(SVD)
線性判別分析(LDA)
標籤傳播演算法(Label Propagation Algorithm)
蒙塔卡羅樹搜索(MCTS)
集成(Ensemble)
t分布隨機鄰居嵌入(TSNE)
譜聚類(Spectral Clustering)
異常點檢測
機器學習實戰篇
- 15分鐘帶你入門sklearn與機器學習——分類演算法篇 && 如何為你的回歸問題選擇最合適的機器學習方法?
- 十分鐘上手sklearn:安裝,獲取數據,數據預處理 && 十分鐘上手sklearn:特徵提取,常用模型,交叉驗證
- Machine Learning Course with Python
- Python3機器學習
機器學習、深度學習的一些研究方向
多任務學習
- 模型匯總-14 多任務學習-Multitask Learning概述
- (譯)深度神經網路的多任務學習概覽(An Overview of Multi-task Learning in Deep Neural Networks)
零次學習(Zero Shot Learning)
小樣本學習(Few-Shot Learning)
- few-shot learning是什麼
- 零次學習(Zero-Shot Learning)入門
- 小樣本學習(Few-shot Learning)綜述
- Few-Shot Learning in CVPR 2019
- 當小樣本遇上機器學習 fewshot learning
多視覺學習(Multi-View Learning)
Embedding
遷移學習
- 1. 遷移學習:經典演算法解析
- 2. 什麼是遷移學習 (Transfer Learning)?這個領域歷史發展前景如何?
- 3. 遷移學習個人筆記
- 遷移學習總結(One Shot Learning, Zero Shot Learning)
域自適應
- Domain Adaptation影片教程(附PPT)及經典論文分享
- 模型匯總15 領域適應性Domain Adaptation、One-shot/zero-shot Learning概述
- 【深度學習】論文導讀:無監督域適應(Deep Transfer Network: Unsupervised Domain Adaptation)
- 【論文閱讀筆記】基於反向傳播的無監督域自適應研究
- 【Valse大會首發】領域自適應及其在人臉識別中的應用
- CVPR 2018:基於域適應弱監督學習的目標檢測
元學習
強化學習
- 強化學習(Reinforcement Learning)知識整理
- 強化學習從入門到放棄的資料
- 強化學習入門
- 強化學習——從Q-Learning到DQN到底發生了什麼?
- 從強化學習到深度強化學習(上)
- 從強化學習到深度強化學習(下)
- 一文帶你理解Q-Learning的搜索策略
推薦系統
語義分割相關演算法
- 乾貨 | 一文概覽主要語義分割網路
- 深度學習中IU、IoU(Intersection over Union)
- Selective Search for Object Detection (譯文)
- NMS——非極大值抑制
- 邊框回歸(Bounding Box Regression)詳解