Medical images and clinical reports contain vast amounts of information. But turning that data into meaningful clinical insight requires sophisticated AI methods. Vector Faculty Member Anne Martel is developing machine learning models to extract actionable information from clinical reports and medical images, enabling better prediction and decision-making for oncology cases. #CanadianAI #AIResearch #HealthCareAI – Les images médicales et les rapports cliniques contiennent une grande quantité d'informations. Mais pour transformer ces données en informations cliniques utiles, il faut recourir à des méthodes d'IA sophistiquées. Anne Martel, membre du corps professoral de Vecteur, développe des modèles d'apprentissage automatique permettant d'extraire des informations exploitables à partir de rapports cliniques et d'images médicales, afin d'améliorer les prévisions et la prise de décision dans les cas d'oncologie. (Activez les sous-titres LinkedIn sur la vidéo ci-dessous pour le français.)
Vector Institute
Research Services
Toronto, Ontario 51,702 followers
The Vector Institute is dedicated to advancing the transformative field of artificial intelligence
About us
Vector Institute is an independent, not-for-profit corporation dedicated to research in the field of artificial intelligence (AI), excelling in machine and deep learning. We work with institutions, industry, start-ups, incubators and accelerators to advance AI research and drive its application, adoption and commercialization across Canada. Launched in March 2017 with generous support from the Government of Canada, Government of Ontario, and private industry, and in partnership with the University of Toronto and other universities. Vector prioritizes transparency. Viewers will be made aware of any AI-generated content before they listen, view or read it.
- Website
-
http://vectorinstitute.ai
External link for Vector Institute
- Industry
- Research Services
- Company size
- 51-200 employees
- Headquarters
- Toronto, Ontario
- Type
- Nonprofit
- Founded
- 2017
- Specialties
- machine learning, deep learning, artificial intelligence, research and commercialization, Applied AI, AI Engineering, Start-ups and scale-ups, and AI Adoption
Locations
-
Primary
Get directions
W1140-108 College Street
Toronto, Ontario M5G 0C6, CA
Employees at Vector Institute
Updates
-
Vector Institute reposted this
🎬 Last week, we filmed 'What Is AI Anyway?' for TVO’s Screen Team, Season 1, Episode 108, at the Vector Institute. 🎞️ Vector Institute became a living classroom. We interviewed AI researchers on their work, and every scene drove home the same truth: AI is not magic and it is not a caring reliable friend. It is mathematics, data, algorithms, and human choices. Our children need to understand this urgently, today. 🎥 Huge thanks to the brilliant writer, Christine Mitchell, the researchers who gave their time, the Fifth Ground Entertainment crew, the stars of the show, Reid and Leia, Vector Institute for letting us use the space, Mila - Quebec Artificial Intelligence Institute, and a special thanks to Jonathan Barry, who recommended me for this project. It takes a village to raise a child. 🎤 What are you doing in your corner of the world to make sure the next generation receives AI safety training? 🎤 Are you having good conversations about AI with your family and community? 🎤 Does your MP or AI Minister know K-12 AI education is a priority for you? 🎤 Have you seen and read your school and school board AI policy? 🎤 Are you advocating for and funding more broad-based AI education like this? ⏰ We have a narrow window to get this right. Miss it, and we fail an entire generation. I’ll let you know when the episode is available. Never stop learning. 🙏 Ian Gormely | Ethan J. | Elham Dolatabadi | Sasha Robinson | Ioana Zelko PhD | Michael Almeida | Digital Moment | Moment numérique | Evan Solomon
-
-
The mathematical foundations of AI security remain contested, but that’s the current state of the field. Two final presentations closed out day two of our Foundations of AI Security Symposium with University of Oxford and Schwartz Reisman Institute for Technology and Society. + @Vardan Papyan (Vector Faculty) on token dynamics and attention modifications + @Connall Garrod (Oxford) on cross-entropy structures and neural collapse Today brought together researchers from Vector, University of Toronto, University of Waterloo, McMaster University, University of Oxford, and New York University, not to present polished solutions, but to wrestle with problems where even basic definitions lack consensus, developing methods to tackle real-world security challenges. The mathematical foundations of AI security are being written, and today showed how much further there is to go. #AIResearch #AISecurity – Les fondements mathématiques de la sécurité de l'IA restent controversés, mais tel est l'état actuel du domaine. Deux dernières présentations ont clôturé la deuxième journée de notre symposium « Fondements de la sécurité de l'IA », organisé en collaboration avec l'université d'Oxford et le Schwartz Reisman Institute : + Vardan Papyan (faculté de Vecteur) sur la dynamique des tokens et les modifications de l'attention + Connall Garrod (Oxford) sur les structures d'entropie croisée et l'effondrement neuronal La journée d'aujourd'hui a réuni des chercheurs de Vecteur, de l'Université de Toronto, de l'Université de Waterloo, de l'Université McMaster, d'Oxford et de l'Université de New York, non pas pour présenter des solutions abouties, mais pour se confronter à des problèmes pour lesquels même les définitions de base font défaut, en développant des méthodes pour relever les défis de sécurité du monde réel. Les fondements mathématiques de la sécurité de l'IA sont en cours d'élaboration, et la journée d'aujourd'hui a montré tout le chemin qu'il reste à parcourir.
-
-
As day two of our Foundations of AI Security Symposium with University of Oxford and Schwartz Reisman Institute for Technology and Society continues, we see an emerging theme: security challenges don’t exist in isolation, but come from interactions between system layers. + Nandita Vijaykumar (Vector Faculty) on performance optimizations and privacy vulnerabilities + Rico Angell (NYU) on jailbreak transferability from shared representations + Nisarg Shah (Vector Faculty Affiliate) on fairness frameworks grounded in democratic principles over traditional These presentations showed how security challenges emerge from system-level interactions and fundamental representational properties, and require accommodating diverse value systems rather than imposing single definitions. The problems being tackled today are the consequences of how AI systems fundamentally work. #AIResearch #AISecurity #MLSecurity – Alors que se poursuit la deuxième journée de notre symposium « Fondements de la sécurité de l'IA », organisé en collaboration avec l'université d'Oxford et le Schwartz Reisman Institute, un thème se dégage : les défis en matière de sécurité n'existent pas de manière isolée, mais découlent des interactions entre les différentes couches du système. + Nandita Vijaykumar (membre du corps enseignant de Vector) sur l'optimisation des performances et les failles en matière de confidentialité + Rico Angell (NYU) sur la transférabilité des techniques de « jailbreak » à partir de représentations partagées + Nisarg Shah (membre affilié de la faculté de Vecteur) sur les cadres d'équité fondés sur des principes démocratiques plutôt que sur les principes traditionnels Ces présentations ont montré comment les défis en matière de sécurité découlent des interactions au niveau du système et des propriétés fondamentales de la représentation, et nécessitent de prendre en compte des systèmes de valeurs diversifiés plutôt que d'imposer des définitions uniques. Les problèmes abordés aujourd'hui sont les conséquences du fonctionnement fondamental des systèmes d'IA.
-
-
Defining the mathematics of AI security is no easy feat. The challenge set the tone for this morning’s opening sessions at our Foundations of AI Security Symposium, co-hosted with University of Oxford and Schwartz Reisman Institute for Technology and Society – a rigorous inquiry into problems that lack clean answers. Three morning presentations to kick off day two: + Tom Lovett (Oxford) on AI security across threat models + Sheila McIlraith (Vector Faculty) on using formal language with AI agents + Hassan Z. Ashtiani (Vector Faculty) on privacy-preserving ML These first sessions focused on establishing foundational frameworks – from defining what AI security means mathematically, to showing how formal language structures enable agent learning, to demonstrating how privacy mechanisms can leverage non-private algorithms as building blocks. As we break for lunch, students from Vector’s research community will be presenting their work showing some of the latest trends and emerging breakthroughs in AI security research. #AIResearch #AISecurity #MathematicalAI – Définir les fondements mathématiques de la sécurité de l'IA n'est pas une mince affaire. Ce défi a donné le ton aux sessions d'ouverture de ce matin lors de notre symposium « Fondements de la sécurité de l'IA », organisé en collaboration avec Université d'Oxford et Institut Schwartz Reisman – une exploration rigoureuse de problèmes pour lesquels il n'existe pas de réponses claires. Trois présentations ce matin pour lancer la deuxième journée : + Tom Lovett (Oxford) sur la sécurité de l'IA à travers les modèles de menaces + Sheila McIlraith (Faculté Vecteur) sur l'utilisation du langage formel avec les agents IA + Hassan Ashtiani (Faculté Vecteur) sur le ML préservant la vie privée Ces premières sessions se sont concentrées sur la mise en place de cadres fondamentaux – allant de la définition mathématique de la sécurité de l'IA à la démonstration de la manière dont les structures de langage formel permettent l'apprentissage des agents, en passant par la présentation de la façon dont les mécanismes de protection de la vie privée peuvent s'appuyer sur des algorithmes non privés comme éléments constitutifs. Pendant la pause déjeuner, des étudiants de la communauté de recherche de Vector présenteront leurs travaux, mettant en lumière certaines des dernières tendances et avancées émergentes dans la recherche sur la sécurité de l'IA.
-
-
Can we mathematically define AI security? That’s the question we tackled today, the first day of our Foundations of AI Security Symposium – a Canada-UK research collaboration co-hosted with University of Oxford and the Schwartz Reisman Institute for Technology and Society. Day one brought together doctoral researchers and faculty for intensive tutorials on the mathematical foundations underlying AI security, to understand the theoretical bedrock that will shape the next decade of research. Three tutorials set the stage: + Sam Cohen (Oxford) explored optimal control theory + Ruth Urner (Vector Faculty) dove into PAC learning for adversarial robustness + Michael Menart (Vector postdoc) discussed privacy-preserving mechanisms + Lightning talks from emerging AI researchers The mathematical foundations of AI security are still being written, and this week, we’re writing them together. #AIResearch #AISecurity #MathematicalAI – Peut-on définir mathématiquement la sécurité de l'IA ? C'est la question que nous avons abordée aujourd'hui, en ce premier jour de notre symposium « Fondements de la sécurité de l'IA » – une collaboration de recherche entre le Canada et le Royaume-Uni organisée conjointement avec l'Université d'Oxford et l'Institut Schwartz Reisman. Cette première journée a réuni des doctorants et des enseignants-chercheurs pour des ateliers intensifs sur les fondements mathématiques de la sécurité de l'IA, afin de comprendre les bases théoriques qui façonneront la prochaine décennie de recherche. Trois ateliers ont ouvert le bal : + Sam Cohen (Oxford) a exploré la théorie du contrôle optimal + Ruth Urner (Vecteur) s'est penchée sur l'apprentissage PAC pour la robustesse face aux attaques adversaires + Michael Menart (post-doctorant à Vecteur) a abordé les mécanismes de préservation de la vie privée + Des présentations éclair par de jeunes chercheurs en IA Les fondements mathématiques de la sécurité de l'IA sont encore en cours d'élaboration, et cette semaine, nous les écrivons ensemble.
-
-
We're proud to collaborate with KPMG Canada on this research examining Canada's AI readiness gap. Our work highlights a crucial insight: different stakeholders need different training, and without role-specific AI literacy, and governance frameworks designed for the AI era, adoption alone won't deliver results. Thank you KPMG for championing this work and helping organizations move from AI experimentation to measurable impact. – Nous sommes fiers de collaborer avec KPMG Canada dans le cadre de cette étude qui examine le retard du Canada en matière de préparation à l'IA. Notre travail met en évidence un constat essentiel : les différentes parties prenantes ont besoin de formations adaptées, et sans une maîtrise de l'IA spécifique à chaque rôle, ni de cadres de gouvernance conçus pour l'ère de l'IA, la simple adoption de cette technologie ne suffira pas à produire des résultats. Merci à KPMG d'avoir soutenu ce projet et d'aider les organisations à passer de l'expérimentation de l'IA à un impact mesurable.
Canadian organizations are no longer asking whether to invest in AI — they’re asking how to make it pay off. This KPMG Canada and Vector Institute article explores why measurable AI returns remain scarce, and what leaders can do now to build the foundations needed for sustainable value creation. Read the full insights: https://lnkd.in/e4UwYpnC
-
-
Vector Institute reposted this
What if the best self-supervised learning target is neither pixels nor final-layer embeddings, but everything in between? I'm excited to share our new paper: "Self-Distillation of Hidden Layers for Self-Supervised Representation Learning" MAE and I-JEPA are the two most popular single-view self-supervised learning methods for vision, and are widely adopted across domains — from remote sensing to medical imaging to video understanding. But both have fundamental limitations: MAE predicts raw pixels. This gives stable training, but the model spends its capacity reconstructing low-level details rather than learning high-level concepts. You always need to fine-tune. I-JEPA predicts final-layer embeddings via self-distillation. This targets high-level features, but the training signal is circular — the targets come from the network you're training — which makes it unstable. Our method, Bootleg, bridges this gap with a simple idea: predict representations from multiple hidden layers of the teacher network simultaneously. Early layers provide grounded, stimulus-driven targets that stabilize training. Deep layers provide semantic targets. And the information bottleneck of compressing all abstraction levels through masked patches forces the encoder to build richer representations at every level. The results speak for themselves. Frozen probe accuracy (no fine-tuning): - ImageNet-1K: 76.7% with ViT-B (+10pp over I-JEPA and MAE) - iNaturalist-21: 58.3% with ViT-B (+17pp over I-JEPA, +15pp over MAE) - ADE20K segmentation: 30.9% mIoU with ViT-B (+11pp over I-JEPA, +6pp over MAE) - Cityscapes segmentation: 35.9% mIoU with ViT-B (+11pp over I-JEPA, +5pp over MAE) Gains are consistent across ViT-S, ViT-B, and ViT-L. The method is straightforward to implement on top of existing I-JEPA or MAE codebases, requires no multi-crop, no heavily-tuned augmentation stack, no contrastive loss, and is batch-size independent — making it practical for teams without massive compute budgets. And because the core idea is architecture- and modality-agnostic, it can be readily deployed wherever MAE and JEPA methods are already being used as a drop-in improvement. Paper: https://lnkd.in/edyszuUd Joint work with Anthony Fuller, Sageev Oore, Evan Shelhamer, and Graham W. Taylor at the Vector Institute, Carleton University, Dalhousie University, The University of British Columbia, and University of Guelph. #MachineLearning #SelfSupervisedLearning #ComputerVision #DeepLearning #RepresentationLearning
-
-
We're extending our collaboration with Roche through 2030. 🎉 Since 2020, this work has brought Roche together with Vector's AI research community and other industry partners on projects that push the boundaries of what AI can do in health. One example: using AI to comb through social media posts and surface patterns in long COVID symptoms that help clinicians better understand and treat patients. Beyond the research itself, we provide collaborators like Roche access to talent, AI engineering capabilities, and training programs that help accelerate AI adoption and turn ideas into applications. "When you get the right industry partners at the table with Vector researchers, real breakthroughs happen," says Cameron Schuler, Vector’s Chief Commercialization Officer and Vice President, Industry Innovation. "Multi-year industry–research relationships show how powerful collaboration can be in delivering tangible health care improvements." Here’s to many more years of turning AI research into real-world health applications. – Nous prolongeons notre collaboration avec Roche jusqu'en 2030. 🎉 Depuis 2020, cette collaboration a permis à Roche de s'associer à la communauté de recherche en IA de Vecteur et à d'autres partenaires du secteur pour mener des projets qui repoussent les limites des possibilités de l'IA dans le domaine de la santé. Un exemple : l'utilisation de l'IA pour analyser les publications sur les réseaux sociaux et mettre en évidence des tendances dans les symptômes du COVID long, ce qui aide les cliniciens à mieux comprendre et traiter les patients. Au-delà de la recherche elle-même, nous offrons à nos collaborateurs, tels que Roche, l'accès à des talents, à des capacités d'ingénierie en IA et à des programmes de formation qui contribuent à accélérer l'adoption de l'IA et à transformer les idées en applications. « Lorsque les bons partenaires industriels s’assoient à la table avec les chercheurs de Vector, de véritables percées voient le jour », déclare Cameron Schuler, directeur de la commercialisation et vice-président chargé de l’innovation industrielle chez Vecteur. « Les relations pluriannuelles entre l’industrie et la recherche montrent à quel point la collaboration peut être puissante pour apporter des améliorations tangibles aux soins de santé. » Nous espérons pouvoir continuer encore de nombreuses années à transformer la recherche en IA en applications concrètes dans le domaine de la santé.
-
-
Thank you Minister Peter Bethlenfalvy and the Ontario Government | Gouvernement de l’Ontario for its continued investment in Critical Technologies in Ontario including AI to keep Ontario businesses competitive on the global stage and maintain Ontario’s leadership position in AI. This support helps fulfill Vector and the province’s shared priorities of attracting the best and brightest talent and driving AI adoption in Ontario businesses of all sizes and from all sectors. – Nous remercions le ministre Peter Bethlenfalvy et le Gouvernement de l’Ontario pour son investissement continu dans les technologies stratégiques en Ontario, notamment l’intelligence artificielle, afin de préserver la compétitivité des entreprises ontariennes sur la scène internationale et de maintenir la position de leader de l’Ontario dans le domaine de l’intelligence artificielle. Ce soutien contribue à la réalisation des priorités communes de Vecteur et de la province, qui consistent à attirer les talents les plus brillants et à favoriser l’adoption de l’intelligence artificielle par les entreprises ontariennes de toutes tailles et de tous les secteurs.
-