Ihre E-Mail wurde erfolgreich gesendet. Bitte prüfen Sie Ihren Maileingang.

Leider ist ein Fehler beim E-Mail-Versand aufgetreten. Bitte versuchen Sie es erneut.

Vorgang fortführen?

Exportieren
  • 1
    UID:
    edoccha_BV048637671
    Umfang: 1 Online-Ressource (lvi, 745 Seiten) : , 231 Illustrationen, 215 in Farbe.
    ISBN: 978-3-031-20083-0
    Serie: Lecture notes in computer science 13671
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20082-3
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20084-7
    Sprache: Englisch
    Schlagwort(e): Konferenzschrift
    URL: Volltext  (URL des Erstveröffentlichers)
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 2
    UID:
    edocfu_BV048637671
    Umfang: 1 Online-Ressource (lvi, 745 Seiten) : , 231 Illustrationen, 215 in Farbe.
    ISBN: 978-3-031-20083-0
    Serie: Lecture notes in computer science 13671
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20082-3
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20084-7
    Sprache: Englisch
    Schlagwort(e): Konferenzschrift
    URL: Volltext  (URL des Erstveröffentlichers)
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 3
    UID:
    almafu_BV048637671
    Umfang: 1 Online-Ressource (lvi, 745 Seiten) : , 231 Illustrationen, 215 in Farbe.
    ISBN: 978-3-031-20083-0
    Serie: Lecture notes in computer science 13671
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20082-3
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20084-7
    Sprache: Englisch
    Schlagwort(e): Konferenzschrift
    URL: Volltext  (URL des Erstveröffentlichers)
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 4
    UID:
    b3kat_BV048637671
    Umfang: 1 Online-Ressource (lvi, 745 Seiten) , 231 Illustrationen, 215 in Farbe
    ISBN: 9783031200830
    Serie: Lecture notes in computer science 13671
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20082-3
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 978-3-031-20084-7
    Sprache: Englisch
    Schlagwort(e): Konferenzschrift
    URL: Volltext  (URL des Erstveröffentlichers)
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 5
    UID:
    gbv_1821192729
    Umfang: 1 Online-Ressource(LVI, 745 p. 231 illus., 215 illus. in color.)
    Ausgabe: 1st ed. 2022.
    ISBN: 9783031200830
    Serie: Lecture Notes in Computer Science 13671
    Inhalt: A Simple Approach and Benchmark for 21,000-Category Object Detection -- Knowledge Condensation Distillation -- Reducing Information Loss for Spiking Neural Networks -- Masked Generative Distillation -- Fine-Grained Data Distribution Alignment for Post-Training Quantization -- Learning with Recoverable Forgetting -- Efficient One Pass Self-Distillation with Zipf’s Label Smoothing -- Prune Your Model before Distill It -- Deep Partial Updating: Towards Communication Efficient Updating for On-Device Inference -- Patch Similarity Aware Data-Free Quantization for Vision Transformers -- L3: Accelerator-Friendly Lossless Image Format for High-Resolution, High-Throughput DNN Training -- Streaming Multiscale Deep Equilibrium Models -- Symmetry Regularization and Saturating Nonlinearity for Robust Quantization -- SP-Net: Slowly Progressing Dynamic Inference Networks -- Equivariance and Invariance Inductive Bias for Learning from Insufficient Data -- Mixed-Precision Neural Network Quantization via Learned Layer-Wise Importance -- Event Neural Networks -- EdgeViTs: Competing Light-Weight CNNs on Mobile Devices with Vision Transformers -- PalQuant: Accelerating High-Precision Networks on Low-Precision Accelerators -- Disentangled Differentiable Network Pruning -- IDa-Det: An Information Discrepancy-Aware Distillation for 1-Bit Detectors -- Learning to Weight Samples for Dynamic Early-Exiting Networks -- AdaBin: Improving Binary Neural Networks with Adaptive Binary Sets -- Adaptive Token Sampling for Efficient Vision Transformers -- Weight Fixing Networks -- Self-Slimmed Vision Transformer -- Switchable Online Knowledge Distillation -- ℓ∞-Robustness and Beyond: Unleashing Efficient Adversarial Training -- Multi-Granularity Pruning for Model Acceleration on Mobile Devices -- Deep Ensemble Learning by Diverse Knowledge Distillation for Fine-Grained Object Classification -- Helpful or Harmful: Inter-Task Association in Continual Learning -- Towards Accurate Binary Neural Networks via Modeling Contextual Dependencies -- SPIN: An Empirical Evaluation on Sharing Parameters of Isotropic Networks -- Ensemble Knowledge Guided Sub-network Search and Fine-Tuning for Filter Pruning -- Network Binarization via Contrastive Learning -- Lipschitz Continuity Retained Binary Neural Network -- SPViT: Enabling Faster Vision Transformers via Latency-Aware Soft Token Pruning -- Soft Masking for Cost-Constrained Channel Pruning -- Non-uniform Step Size Quantization for Accurate Post-Training Quantization -- SuperTickets: Drawing Task-Agnostic Lottery Tickets from Supernets via Jointly Architecture Searching and Parameter Pruning -- Meta-GF: Training Dynamic-Depth Neural Networks Harmoniously -- Towards Ultra Low Latency Spiking Neural Networks for Vision and Sequential Tasks Using Temporal Pruning -- Towards Accurate Network Quantization with Equivalent Smooth Regularizer.
    Inhalt: The 39-volume set, comprising the LNCS books 13661 until 13699, constitutes the refereed proceedings of the 17th European Conference on Computer Vision, ECCV 2022, held in Tel Aviv, Israel, during October 23–27, 2022. The 1645 papers presented in these proceedings were carefully reviewed and selected from a total of 5804 submissions. The papers deal with topics such as computer vision; machine learning; deep neural networks; reinforcement learning; object recognition; image classification; image processing; object detection; semantic segmentation; human pose estimation; 3d reconstruction; stereo vision; computational photography; neural networks; image coding; image reconstruction; object recognition; motion estimation.
    Weitere Ausg.: ISBN 9783031200823
    Weitere Ausg.: ISBN 9783031200847
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 9783031200823
    Weitere Ausg.: Erscheint auch als Druck-Ausgabe ISBN 9783031200847
    Sprache: Englisch
    URL: Cover
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 6
    UID:
    almahu_9949387951102882
    Umfang: LVI, 745 p. 231 illus., 215 illus. in color. , online resource.
    Ausgabe: 1st ed. 2022.
    ISBN: 9783031200830
    Serie: Lecture Notes in Computer Science, 13671
    Inhalt: The 39-volume set, comprising the LNCS books 13661 until 13699, constitutes the refereed proceedings of the 17th European Conference on Computer Vision, ECCV 2022, held in Tel Aviv, Israel, during October 23-27, 2022. The 1645 papers presented in these proceedings were carefully reviewed and selected from a total of 5804 submissions. The papers deal with topics such as computer vision; machine learning; deep neural networks; reinforcement learning; object recognition; image classification; image processing; object detection; semantic segmentation; human pose estimation; 3d reconstruction; stereo vision; computational photography; neural networks; image coding; image reconstruction; object recognition; motion estimation.
    Anmerkung: A Simple Approach and Benchmark for 21,000-Category Object Detection -- Knowledge Condensation Distillation -- Reducing Information Loss for Spiking Neural Networks -- Masked Generative Distillation -- Fine-Grained Data Distribution Alignment for Post-Training Quantization -- Learning with Recoverable Forgetting -- Efficient One Pass Self-Distillation with Zipf's Label Smoothing -- Prune Your Model before Distill It -- Deep Partial Updating: Towards Communication Efficient Updating for On-Device Inference -- Patch Similarity Aware Data-Free Quantization for Vision Transformers -- L3: Accelerator-Friendly Lossless Image Format for High-Resolution, High-Throughput DNN Training -- Streaming Multiscale Deep Equilibrium Models -- Symmetry Regularization and Saturating Nonlinearity for Robust Quantization -- SP-Net: Slowly Progressing Dynamic Inference Networks -- Equivariance and Invariance Inductive Bias for Learning from Insufficient Data -- Mixed-Precision Neural Network Quantization via Learned Layer-Wise Importance -- Event Neural Networks -- EdgeViTs: Competing Light-Weight CNNs on Mobile Devices with Vision Transformers -- PalQuant: Accelerating High-Precision Networks on Low-Precision Accelerators -- Disentangled Differentiable Network Pruning -- IDa-Det: An Information Discrepancy-Aware Distillation for 1-Bit Detectors -- Learning to Weight Samples for Dynamic Early-Exiting Networks -- AdaBin: Improving Binary Neural Networks with Adaptive Binary Sets -- Adaptive Token Sampling for Efficient Vision Transformers -- Weight Fixing Networks -- Self-Slimmed Vision Transformer -- Switchable Online Knowledge Distillation -- ℓ∞-Robustness and Beyond: Unleashing Efficient Adversarial Training -- Multi-Granularity Pruning for Model Acceleration on Mobile Devices -- Deep Ensemble Learning by Diverse Knowledge Distillation for Fine-Grained Object Classification -- Helpful or Harmful: Inter-Task Association in Continual Learning -- Towards Accurate Binary Neural Networks via Modeling Contextual Dependencies -- SPIN: An Empirical Evaluation on Sharing Parameters of Isotropic Networks -- Ensemble Knowledge Guided Sub-network Search and Fine-Tuning for Filter Pruning -- Network Binarization via Contrastive Learning -- Lipschitz Continuity Retained Binary Neural Network -- SPViT: Enabling Faster Vision Transformers via Latency-Aware Soft Token Pruning -- Soft Masking for Cost-Constrained Channel Pruning -- Non-uniform Step Size Quantization for Accurate Post-Training Quantization -- SuperTickets: Drawing Task-Agnostic Lottery Tickets from Supernets via Jointly Architecture Searching and Parameter Pruning -- Meta-GF: Training Dynamic-Depth Neural Networks Harmoniously -- Towards Ultra Low Latency Spiking Neural Networks for Vision and Sequential Tasks Using Temporal Pruning -- Towards Accurate Network Quantization with Equivalent Smooth Regularizer.
    In: Springer Nature eBook
    Weitere Ausg.: Printed edition: ISBN 9783031200823
    Weitere Ausg.: Printed edition: ISBN 9783031200847
    Sprache: Englisch
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
Meinten Sie 9783031008467?
Meinten Sie 9783030200817?
Meinten Sie 9783030210847?
Schließen ⊗
Diese Webseite nutzt Cookies und das Analyse-Tool Matomo. Weitere Informationen finden Sie auf den KOBV Seiten zum Datenschutz