Problem z tango Microsoftu z Intelem i AMD w celu wypychania komputerów PC ze sztuczną inteligencją polega na tym, że Copilot tak naprawdę nie używa NPU, nawet na brzegu sieci – wprowadzasz zapytanie lub monit, a Copilot przekazuje je AI opartej na chmurze praca. To się wkrótce zmieni, gdy Microsoft ogłosi, że Copilot będzie mógł działać lokalnie na komputerach wyposażonych w sztuczną inteligencję. Firma Microsoft zidentyfikowała kilka rodzajów przypadków użycia funkcji Copilot, które jednostka NPU może obsłużyć na urządzeniu, co powinno przyspieszyć czas odpowiedzi na zapytania funkcji Copilot, ale wymaga to, aby jednostka NPU miała co najmniej 40 TOPS wydajności. Stanowi to problem dla obecnej grupy procesorów wyposażonych w jednostki NPU. Procesor Intel Core Ultra „Meteor Lake” ma jednostkę NPU AI Boost z 10 TOPS na dotknięciu, podczas gdy Ryzen 8040 „Hawk Point” jest tylko nieznacznie szybszy dzięki jednostce NPU Ryzen AI 16 TOPS. Firma AMD ujawniła już, że procesory NPU Ryzen AI drugiej generacji oparte na XDNA 2 w nadchodzących procesorach „Strix Point” będą charakteryzowały się wydajnością na poziomie ponad 40 TOP, i jest oczywiste, że jednostki NPU w procesorach „Arrow Lake” lub „Lunar Lake” firmy Intel „ procesory są porównywalne pod względem wydajności; co powinno włączyć funkcję Copilot na urządzeniu.