検索条件

キーワード
タグ
ツール
開催日
こだわり条件

タグ一覧

JavaScript
PHP
Java
Ruby
Python
Perl
Scala
Haskell
C言語
C言語系
Google言語
デスクトップアプリ
スマートフォンアプリ
プログラミング言語
U/UX
MySQL
RDB
NoSQL
全文検索エンジン
全文検索
Hadoop
Apache Spark
BigQuery
サーバ構成管理
開発サポートツール
テストツール
開発手法
BI
Deep Learning
自然言語処理
BaaS
PaaS
Iaas
Saas
クラウド
AI
Payment
クラウドソフトウェア
仮想化ソフトウェア
OS
サーバ監視
ネットワーク
WEBサーバ
開発ツール
テキストエディタ
CSS
HTML
WEB知識
CMS
WEBマーケティング
グラフィック
グラフィックツール
Drone
AR
マーケット知識
セキュリティ
Shell
IoT
テスト
Block chain
知識

Deep Learning Theory Team Seminar(Talk by Taoli Zheng, The Chinese University of Hong Kong).

2025/05/29(木)
07:00〜08:00

主催:RIKEN AIP Public

Team】Deep Learning Theory Team
【Date】2025/May/22(Thursday) 10:00-11:00(JST)
【Speaker】Talk by Taoli Zheng, The Chinese University of Hong Kong
Title: Universal Algorithms for Smooth Minimax Optimization: From Theory to Practice
Abstract:
Smooth minimax optimization problems play a central role in a wide range of applications, including machine learning, game theory, and operations research. However, the diversity of problem structures—spanning convex-concave, nonconvex-concave, convex-nonconcave, and nonconvex-nonconcave with additional regularity conditions—has traditionally required problem-specific algorithmic designs and careful hyperparameter tuning. In this talk, I will present a unified approach through two recent algorithms: Doubly Smoothed Gradient Descent Ascent (DS-GDA) and Doubly Smoothed Optimistic GDA (DS-OGDA). These single-loop methods require no prior structural knowledge and work effectively across a broad class of smooth minimax problems, achieving optimal or best-known convergence guarantees while demonstrating strong empirical performance on notoriously difficult nonconvex-nonconcave examples.

Workship