Dzięki za odpowiedź.
To nie są gadki PR-owe, ale fakty, bo nawet redakcja tak... ekhem... sceptyczna względem AMD, jaką jest PCLab (link poglądowy) to potwierdza poniekąd. Jak jestem przeciwnikiem uśrednionych wyników, tak na tym polu dobrze obrazują tendencję. Porównaj dwa wykresy:
Test sprzed 2 lat - http://pclab.pl/zdjecia/artykuly/chaostheory/2014/02/gtx_7xx_maxwell/charts/avg_1080p.png
Test sprzed kilku dni - http://pclab.pl/zdjecia/artykuly/chaostheory/2016/01/gfx_r7360_gtx750/charts/avg01.png
Odnajdź tam GTX 660 i Radeona HD 7850. Na pierwszym wykresie te karty dzieli 30%, a teraz jest to niecałe 5%. Oczywiście odpowiednikiem cenowym GTX 660 był Radeon HD 7870, czyli karta obecnie już na każdym polu szybsza (kiedyś szły łeb w łeb).
Różnica osiągów wynosi 26,9 % i 6,7 %, bo o tyle procent się różnią (a nie punkty procentowe), ale:
1. Procent procentowi nierówny. Te 30 % to mogła być różnica 26 vs 20 fps a 7 % - 32 vs 30 fps. Szczerze mówiąc nie chce się mi zliczać wszystkiego na piechotę gdzie i ile klatek na sekundę się zyskuje.
W 2014 roku 100 % określał GTX 650 Ti, a w 2016 - R7 360. Doprowadzająć wyniki do wspólnego mianownika można wyliczyć, że R7 360 jest o (100 - 83,8) = 16,2 % szybszy niż GTX 650 Ti. Więc wyniki 660 vs 7850 równe 123,5 vs 118,6 powiększone o te 16,2 % dla każdego z wyniku, to tak naprawdę (123,5 * 1,162) = 143,507 % vs (118,6 * 1,162) = 137,813 %. Także różnica wynosi 4,13 %.
Różnica zmalała, bo to średnia wydajności
również z nowych gier. A więc...
2. Zmieniły się gry, w których testują karty.
Pojawiły się bardziej wymagające gry, w któych te karty będą osiągać mniejszą ilość klatek, więc różnica 1 FPS da większą różnicę procentową.
Przykładowo w Far Cry 4 różnica wynosi (40,3 - 39,3) = 1 FPS, co daje już 2,5 %!
Karty bardziej dostają po d..tyłku, więc i osiągami się zaczynają zrównywać.
3. Zmieniła się platforma sprzętowa, zmienili i7. Zmieniły się też sterowniki.
Porównać się da tylko Crysis 3, bo tylko ten jest wspólnym elementem obu testów. Tu jest ciekawie.

W przypadku miejsca
Welcome to the Jungle w dwa lata 660 zyskała (48,1 - 42,9)/42,9 = 12,12 % a 7850 (36,4 - 33,4)/33,4 = 8,98 %. To miejsce jest opisywane jako generujące większe zapotrzebowanie na obliczenia karty niż moc procka.
W przypadku miejsca
The Root of All Evi 660 straciła(!) (51,7 - 54,2)/54,2 = 4,61% a 7850 zyskał (42,2 - 39,4)/39,4 = 7,11 %. To jest opisywane jako miejsce silnie obciążające procka i kartę graficzną.
Szczerze mówiąc, ten wynik mnie zdziwił. Nie spodziewałem się tego spadku wydajności GTX przy lepszym procku. W zasadzie profil w sterach powinien zostać niezmieniony, może coś innego sknocili.
Nie ma innych gier do porównania, to ciężko uzyskać wiarygodną średnią.
Inny przykład? Weźmy GTX 780 Ti, czyli kartę, która 2 lata temu kosztowała ok. 2800 zł i zestawmy z wynikami Radeona R9 290X, który kosztował 2200 zł. W momencie premiery GeForce zazwyczaj wygrywał z Radeonem - zerknij: http://www.purepc.pl/karty_graficzne/test_kart_graficznych_geforce_gtx_780_ti_vs_radeon_r9_290x
A teraz zdarza się, że przegrywa nawet z R9 290 (bez X). Podrzucam link do testów w Full HD, bo w wyższej rozdzielczości Radeon zwiększa przewagę:
Wiedźmin 3 - http://www.purepc.pl/karty_graficzne/wiedzmin_3_dziki_gon_test_procesorow_i_kart_graficznych?page=0,8
GTA V - http://www.purepc.pl/karty_graficzne/jakie_sa_wymagania_sprzetowe_gta_v_test_wydajnosci?page=0,7
Far Cry 4 - http://www.purepc.pl/karty_graficzne/wymagania_far_cry_4_niskie_test_kart_graficznych_i_procesorow?page=0,5
Call of Dutu Black Ops 3 - http://www.purepc.pl/karty_graficzne/call_of_duty_black_ops_iii_pc_test_wydajnosci_kart_graficznych?page=0,7
Star Wars Battlefront - http://www.purepc.pl/karty_graficzne/star_wars_battlefront_pc_test_kart_graficznych_ile_mocy_potrzeba?page=0,5
Tu łatwiej wykazać różnicę dzięki tej samej platformie testowej a zmieniają się sterowniki. A w zasadzie nie, bo nie ma tych samych gier w tych testach.
Chociaż jestem w stanie uwierzyć w postarzanie produktu - rodziny 780 po wypuszczeniu rodziny 9x0, zwłaszcza 970.
Zerknąłem więc na porównanie Tomb Raider w testach z marca i listopada 2013 roku.
http://www.purepc.pl/karty_graficzne/tomb_raider_test_kart_graficznych_na_procesorach_amd_i_intel?page=0,6vs
http://www.purepc.pl/karty_graficzne/test_kart_graficznych_geforce_gtx_780_ti_vs_radeon_r9_290x?page=0,13Jedynym wspólnym elementem okazał się Radek 7970, przy czym różnych producentów i niestety nieco innym taktowaniem. Rdzeń taktowany tak samo, ale VRAM "zyskał" w tym okresie 400 MHz (z 5600 do 6000 MHz ). Ponadto w listopadzie jest już i7 w miejsce i5 (oba na 4,5 GHz). Więc te "nowsze" testy powinny wypaść lepiej.
W marcu średni FPS wyniósł 52,5 a w listopadzie 47,4. A więc spadek o (47,4 - 52,5)/52,5 = 9,71 %.
Chociaż może to kwestia zmiany lub innego nazwania ustawień - Very High vs Ultimate.
Co do Black Ops III, to o ile jeszcze jej nie połatali, to gra jest pokazem tragicznej konwersji z konsol. No dobra, kiepskiej, bo tragedię pokazał ostatni Batman.
Po przeciwnej stronie jest za to GTA V.
SW Battlefront bazuje na Frostbite 3, więc wyniki powinny, mniej więcej, odpowiadać wynikom z Battlefielda 4.
Szczerze mówiąc, to nie chce mi się za tym teraz kopać.
Jak widać po powyższym, mniej 
Masz rację twierdząc, że część gier będzie działąć lepiej na jednej platformie, a część lepiej na drugiej.
Jednak uważam, że za te dwa - trzy lata różnicę w wydajności na poziomie nawet tych 5% (co da różnicę powiedzmy 2 FPS przy okolicach 40 FPS) będę w stanie zrekompensować sobie lepszymi możliwościami podkręcania 970. A przez ten okres będę zyskiwał lepszą wydajnością w grach, w które gram lub zamierzam grać, m. in. FSX, GTA V, nowy Tomb Rider, Deus Ex, może BF4 i Doom 4 (chociaż w tym wypadku raczej zaczekam na jakąś promocję).