Lines Matching refs:new_spte
450 static void mmu_spte_set(u64 *sptep, u64 new_spte)
453 __set_spte(sptep, new_spte);
460 static u64 mmu_spte_update_no_track(u64 *sptep, u64 new_spte)
464 WARN_ON(!is_shadow_present_pte(new_spte));
465 check_spte_writable_invariants(new_spte);
468 mmu_spte_set(sptep, new_spte);
473 __update_clear_spte_fast(sptep, new_spte);
475 old_spte = __update_clear_spte_slow(sptep, new_spte);
477 WARN_ON(spte_to_pfn(old_spte) != spte_to_pfn(new_spte));
491 static bool mmu_spte_update(u64 *sptep, u64 new_spte)
494 u64 old_spte = mmu_spte_update_no_track(sptep, new_spte);
505 !is_writable_pte(new_spte))
513 if (is_accessed_spte(old_spte) && !is_accessed_spte(new_spte)) {
518 if (is_dirty_spte(old_spte) && !is_dirty_spte(new_spte)) {
1407 u64 new_spte;
1424 new_spte = kvm_mmu_changed_pte_notifier_make_spte(
1428 mmu_spte_set(sptep, new_spte);
3242 u64 *sptep, u64 old_spte, u64 new_spte)
3256 if (!try_cmpxchg64(sptep, &old_spte, new_spte))
3259 if (is_writable_pte(new_spte) && !is_writable_pte(old_spte))
3317 u64 new_spte;
3346 new_spte = spte;
3355 new_spte = restore_acc_track_spte(new_spte);
3369 new_spte |= PT_WRITABLE_MASK;
3387 if (new_spte == spte ||
3388 !is_access_allowed(fault, new_spte))
3396 if (fast_pf_fix_direct_spte(vcpu, fault, sptep, spte, new_spte)) {